COMPTOIR
register

Une démonstration mitigée au Computex pour mettre en avant la HDR

Outre l'attente de la technologie OLED dans les moniteurs destinés à nos bécanes, c'est la technologie HDR qui fait du bruit en ce moment. Ce sigle vient pour High Dynamic Range (Imaging) et en français dans le texte cela donne "imagerie à grande gamme dynamique". Ce procédé n'est pas jeune et était déjà appliqué en photographie en 1850, mais fait tout juste son chemin vers nos PC aujourd'hui, maintenant que le matos standard le permet.

 

L'idée est simple, aller plus loin que l'affichage en SDR, ou Standard Dynamic Range (Television) qui donne "image à plage dynamique standard" en français, qui se limitait à 24 bits par pixels affichés (huit par couleur, rouge, vert, bleu), ce qui donne 256 valeurs disponibles et ne permet qu'un écart lumineux de 255 entre le pixel le plus sombre et le pixel le plus lumineux affiché sur une image. Un format pensé pour nos bons vieux téléviseurs (à écrans cathodiques), qui a fait son temps. Avec la HDR on passe à 10 bits de profondeur de couleur, toujours sur le même trio, ce qui permet une plus grande amplitude entre noirs et blancs et donc un affichage plus... dynamique !

 

Ceux qui ont pu mettre le nez sur du moniteur HDR ont pu voir la différence et espèrent certainement que la technologie se démocratise rapidement, c'est d'ailleurs le cas de Thibaut qui y voit une nouvelle révolution à la Adaptive Sync (G-Sync ou FreeSync avec LFR). Les constructeurs ont donc eu la bonne idée de présenter la chose durant le Computex et NVIDIA a même poussé plus loin en présentant du Mass Effect: Andromeda sur moniteur SDR et HDR côte à côte pour bien marquer la différence.

 

Nos confrères de chez Hardware Canucks étaient sur place et ont tiqué sur la pauvreté de l'image du moniteur SDR, alors que l'engin en question vaut tout de même un paquet d'oseille, puisque c'est l'AGON AG352UCG de chez AOC et qu'il vaut pas loin de 900€. Comment une dalle VA tout à fait capable peut-elle se retrouver avec un rendu proche d'une dalle TN ? Ils ont demandé à NVIDIA d'avoir un moment intime avec les deux moniteurs et voilà ce qu'ils ont trouvé :

 

 

Il y a certes une différence notable entre image SDR et image HDR, mais pousser le vice jusqu'à baisser luminosité, gamma et contraste sur le moniteur d'AOC pour accentuer le trait est parfaitement idiot si c'est pour autoriser la presse à venir y mettre les doigts par la suite. C'est cependant, et très malheureusement, une pratique courante dans le milieu de l'image, les téléviseurs ayant même un mode spécial de présentation pour fonctionner dans les rayons de vos magasins préférés.

 

Puisque l'on est aux débuts de la technologie HDR, tout n'est pas encore tout rose et certains préfèreront l'affichage plus coloré et brillant du SDR face à l'immersion proposée par le rendu HDR, c'est d'ailleus le cas de notre confrère. Les éléments peuvent sembler plus ternes, mais c'est bien là le rôle des ombres lorsque l'on a une source lumineuse en pleine poire. Il va certainement y avoir besoin de peaufiner la direction artistique pour les titres qui officieront aussi bien en SDR qu'en HDR, mais la nouveauté semble prometteuse, même sans que l'on triche pour la mettre en avant. Qu'en pensez-vous ?

Un poil avant ?

Le Core i7-7740K a tapé les 7,5GHz sous hélium liquide

Un peu plus tard ...

Test • GIGABYTE Z270X-DESIGNARE

Les 12 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !