COMPTOIR
register

Le codec H.265 (HEVC) supporté matériellement par les prochaines puces Maxwell ?

Le codec H.265, aussi appellé HEVC pour High Efficiency Video Coding, devrait faire son apparition dans les prochains GPU Maxwell de NVIDIA. Vous savez, ceux gravés en 20 nm qu'on attend plus de peur de manger la soupe froide. Selon les sources de Fudzilla, les prochaines cartes graphiques du caméléon vert devraient supporter au niveau matériel le décodage de ce codec.

 

Le H.265 sera très utile pour profiter des vidéos hautes définitions (jusqu'à une définition de 7680 x 4320) tout en divisant le débit vidéo de 50 à 60% par rapport à l'actuel H.264, de quoi permettre de les lire en streaming d'une traite. Mais la puissance demandée pour le décodage est colossale, ce qui explique la nécessité d'une puce dédiée qui devrait être présente sur les futures Maxwell.

 

Cette rumeur n'a rien d'étonnant quand on sait que le prochain Snapdragon 805 intégrera le décodage matériel du H.265 via son GPU Adreno 420. Ce SoC à destination des mobiles devrait être disponible dans les smartphones d'ici quelques mois. Du côté d'AMD, pas d'information pour les prochaines Radeon mais il serait étonnant qu'elles ne supportent pas le décodage du HEVC.

 

h265.jpg  

Un poil avant ?

Acer lance un 32 pouces en 1440p

Un peu plus tard ...

Le Tegra K1 de NVIDIA benché dans une tablette : deux fois plus performant que l'A7 de l'iPad ?

Les 43 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Chacc, le Dimanche 11 Mai 2014 à 14h26  
Ce serait très con de voir un truc qui "demande une puissance de décodage colossale" qui fonctionne sur un smartphone et par sur une carte graphique surventilée, overclockée, refroidit à l'azote liquide à 3000 euros ...
par j38, le Dimanche 11 Mai 2014 à 01h47  
par Un ragoteur gaulois d'Ile-de-France le Samedi 10 Mai 2014 à 18h19
Le propos est qu'il est absurde de croire qu'en dessous de 100" l'UHD est totalement inutile.
Tout à fait, si on est assez proches de l'écran pour que l'oeil perçoive les pixels.
 
Les tableaux et graphiques souvent bidons sur le pitch, la distance et les diagonales n'ont plus la même pertinence dans le contexte de l'UHD.
Pour quelle(s) raison(s)? Merci d'expliquer plutôt que de balancer des déclarations pour lesquelles on devrait te croire sur parole.
 
Ensuite les préférences individuelles d'utilisation, distances, tailles d'écrans font qu'on peut tout à fait apprécier l'UHD sur un 40" s'il s'en sert comme moniteur
On est d'accord. :-)
 
ou si il matte ses films aux alentours de 2-3m entre deux écrans de ~60" le gain sera perceptible, à condition bien sur que la source soit de bonne qualité.

Pourquoi 2 écrans ? D'après les différents graphiques tu cites le cas à la frontière ou l'oeil profite du 1080p mais pas de l'UHD. Certes l'image serait plus précise mais on ne percevrait pas tous les pixels (un peu comme le fait qu'on voit une image et pas juste des sous-pixels rouge, vert et bleu).
par Un ragoteur gaulois d'Ile-de-France, le Samedi 10 Mai 2014 à 18h19  
Le propos est qu'il est absurde de croire qu'en dessous de 100" l'UHD est totalement inutile. Les tableaux et graphiques souvent bidons sur le pitch, la distance et les diagonales n'ont plus la même pertinence dans le contexte de l'UHD.
Ensuite les préférences individuelles d'utilisation, distances, tailles d'écrans font qu'on peut tout à fait apprécier l'UHD sur un 40" s'il s'en sert comme moniteur ou si il matte ses films aux alentours de 2-3m entre deux écrans de ~60" le gain sera perceptible, à condition bien sur que la source soit de bonne qualité.
par Un ragoteur gaulois d'Ile-de-France, le Samedi 10 Mai 2014 à 18h11  
par j38 le Vendredi 09 Mai 2014 à 22h16
Je n'ai jamais dit le contraire, je parle uniquement de l'intérêt de la définition 4K, c'est un autre sujet les couleurs.
par j38 le Vendredi 09 Mai 2014 à 17h16
Peut-être, mais quel rapport avec la résolution 4K ? C'est lié à la qualité des écrans, pas à la résolution.
On te dit que la norme apporte plus que de nouvelles définitions.
par Un ragoteur inspiré de Lorraine, le Samedi 10 Mai 2014 à 13h03  
par j38 le Vendredi 09 Mai 2014 à 17h16
Je me base sur l'article qui se base sur les limites de l'œil humain. Je ne vois pas de faille dans ce raisonnement donc je pense que c'est une bonne base pour estimer les gains des différentes résolutions. Si tu vois un souci dans cette méthode, merci de le partager.
Au hasard, article sur l'encodage hardware.fr...

L'utilisation du PSNR ne garantit rien du tout, c'est un indicateur simple mais très incomplet. Je me demande d'ailleurs quel aurait été le score de C+ crypté à la grande époque... surprise à la clé (de cryptage évidemment)?
par j38, le Vendredi 09 Mai 2014 à 22h16  
par Nanabozo732 le Vendredi 09 Mai 2014 à 17h51
Les histoires de limites de l'oeil censées standardiser les comportements et usages et théoriser les gouts et ressentis en matière de perception, faut pas tout gober.

Déjà quel oeil humain ? Avons-nous tous la même vue, la même sensibilité face à telles nuances ou subtilités ?
C'est écrit dans l'article:
 
Based on the resolving ability of the human eye (with 20/20 vision it is possible to resolve 1/60th of a degree of an arc), it is possible to estimate when the differences between resolutions will become apparent.
C'est également écrit sur cet autre page:
 
The standard definition of normal visual acuity (20/20 vision) is the ability to resolve a spatial pattern separated by a visual angle of one minute of arc.
C'est à dire une vision normale.

par Nanabozo732 le Vendredi 09 Mai 2014 à 17h51
Les distances qu'évoque le gars dans ton article sont basées sur le gain éprouvé par un individu (ou un groupe qui sait) en passant de 720p à 1080p sur des écrans de plus en plus larges. Mais qui il est pour décréter que c'est mieux là plus que là pour tout le monde ?
As-tu lu l'article ? Ce n'est pas basé sur un ressenti mais sur un calcul dérivé de la limite de résolution de l'œil humain. Si j'ai mal lu merci de me le montrer parce que là je ne vois pas.
par Nanabozo732 le Vendredi 09 Mai 2014 à 17h51
Si tu vas au ciné, que ça soit une grande ou petite salle est-ce que tous les gens courent se mettre au même endroit dans la salle ? Certaines personnes trouveront que c'est beaucoup mieux d'être pile au milieu, d'autres à 3, 4 sièges devant tout près de l'écran, d'autres tout au fond, certains iront même sur les cotés ou au premier rang de leur propre chef, pas juste par manque de place.

Les trucs comme ça qui te disent que pour profiter de tel écran dans ton salon tu dois te mettre là, c'est nawak.
Quel rapport avec la définition ? Les gens se placent plus ou moins près de l'écran et tu en déduis que l'œil humain est capable de discerner du Full HD à 4 mètres sur un écran de 40 "? Je ne suis pas ton raisonnement.
par Nanabozo732 le Vendredi 09 Mai 2014 à 17h51
Renseigne toi, l'UHD/4K ça n'apporte pas qu'une définition supérieure ça arrive avec un espace colorimétrique amélioré. lien
Je n'ai jamais dit le contraire, je parle uniquement de l'intérêt de la définition 4K, c'est un autre sujet les couleurs.
par Nanabozo732, le Vendredi 09 Mai 2014 à 19h55  
par Activation, le Vendredi 09 Mai 2014 à 19h29  
pour ceux à qui ça parle pas 8bits ou 10bits ou +

une composante codé sur 8bits
ça donne 256 nuances possible
si votre TV fullHD n'affiche par exemple qu'un dégradé intégrale d'une seule composante de haut en bas ça veut dire qu'en fait votre dégradé sera en fait constitué de "bande" de presque 4lignes

en 10bits ça fait 1024 variances

on parle de UltraHD ou de Hi-Vision pour 2020

dans l'idéal faudrait travailler sur 13bits par composante pour le Hi Vision

le 8bits c'était bon pour le DVD Video, pas pour le FullHD
on peut dire merci au fait que l'avc (h264) n'apporte pas que ça, mais bien d'autre améliorations d'algorithmes, division des blocs, prédiction, etc... comparé au h262 (mpeg2)
il en est de même pour l'hevc
c'est pas juste "ça prend moins de place mais faut plus de puissance"

depuis la sortie des premier blu ray, les TV ou tablet avec dalles Wide Gamut sont là (ça existe encore des tablet ou TV avec des dalles TN de merde ?)
resté en 8bits par composante sur les production commercial en UltraHD moi j'aurais alors un mot "bouffonnerie" tout comme on nous refourgue encore du dolby digital de merde sur de trop nombreux blu ray (Warner en tête)
par Activation, le Vendredi 09 Mai 2014 à 19h10  
par Un ragoteur qui ragote embusqué le Vendredi 09 Mai 2014 à 13h39
Videolan (vlc) à deja un codec x265 (comme x264 est à h264...) et pour le décodage de 1080p c'est pas plus lourd, ou du moins pas bcp plus, que la lecture d'un x264. L'encodage là par contre c'est une autre histoire mais c'est pas pire que le x264 y'a qql année. Petit lien avec qql vidéo à l'appui. Noté la petite taille d'un 1080p, 2 minutes pour 20mb et de qualité c'est pas mal quand même.
Et du décode quoi actuellement en x265, des videos qui était à la base compressé en avc donc déjà détérioré
Pour caricaturé un max tu réencode en flac un mp3.
Un peu comme le peu d'intérèt d'encode en avc 10bits par composante avec une source venant du cable, satellite castré à 8 bits par composante. Le hevc tout comme l'avc ça transforme pas par magie des video déjà compressé dans leur format raw d'origine

Partant de là, dire que "c'est plus lourd à décoder" ... faudrait déjà avoir pu encoder de la source original non compressé, déjà l'encodage dans les règles de l'art feront qu'à terme le fichier final compressé en hevc sera de meilleurs qualité qu'en avc... déjà rien que par le fait qu'on travaillera par défaut au delà des 8bits par composante (des bluray commerciaux qui utilise du avc en 10bits par composante j'en connais pas... )
par Nanabozo732, le Vendredi 09 Mai 2014 à 18h01  
Certains vont décréter que pour des histoires de focal et de vision latérale selon la taille de l'écran faut se mettre à tel endroit comme ça on a une vue globale sans tourner la tête ou bouger les yeux. Le truc c'est certains apprécient justement d'avoir à tourner légèrement la tête ou bouger les yeux pour suivre un mouvement qui passe d'un bout à l'autre de l'écran. A taille d'écran et définition équivalente tout le monde n'aura pas le même ressenti et ne trouvera pas que le choix de position de l'autre soit le plus adapté à ses propres préférences. Et j'en reviens à la notion de place et distance, pourquoi reculer si on achète un écran plus grand ou/et ayant une meilleure définition ? Et pourquoi acheter un écran de très grande taille (genre 80-90" ) si on a pas la place pour prendre du recul et surtout le poser sans qu'il consomme de l'espace sur d'autres meubles ? Et pourquoi pas si on s'en fout de ne pas englober l'image d'un seul regard par manque de recul mais qu'on a la place pour le caser et qu'on aime être plongé dans l'image comme dans un panorama ?
Si on veut gagner en place et en immersion, on prendra un écran de taille moyenne tout en étant assez près, (environ 2m) et l'UHD sera malgré tout apprécié par ceux qui préfèrent ce genre de configuration. Dire qu'il faut absolument un écran géant pour apprécier pleinement les apports de cette techno, je dis non, ça dépend.
par Nanabozo732, le Vendredi 09 Mai 2014 à 17h51  
Les histoires de limites de l'oeil censées standardiser les comportements et usages et théoriser les gouts et ressentis en matière de perception, faut pas tout gober.
Déjà quel oeil humain ? Avons-nous tous la même vue, la même sensibilité face à telles nuances ou subtilités ?
Les distances qu'évoque le gars dans ton article sont basées sur le gain éprouvé par un individu (ou un groupe qui sait) en passant de 720p à 1080p sur des écrans de plus en plus larges. Mais qui il est pour décréter que c'est mieux là plus que là pour tout le monde ?
Si tu vas au ciné, que ça soit une grande ou petite salle est-ce que tous les gens courent se mettre au même endroit dans la salle ? Certaines personnes trouveront que c'est beaucoup mieux d'être pile au milieu, d'autres à 3, 4 sièges devant tout près de l'écran, d'autres tout au fond, certains iront même sur les cotés ou au premier rang de leur propre chef, pas juste par manque de place.
Les trucs comme ça qui te disent que pour profiter de tel écran dans ton salon tu dois te mettre là, c'est nawak.
par j38 le Vendredi 09 Mai 2014 à 17h16
Peut-être, mais quel rapport avec la résolution 4K ? C'est lié à la qualité des écrans, pas à la résolution.
Renseigne toi, l'UHD/4K ça n'apporte pas qu'une définition supérieure ça arrive avec un espace colorimétrique amélioré. lien
par j38, le Vendredi 09 Mai 2014 à 17h16  
par Nanabozo732 le Vendredi 09 Mai 2014 à 16h50
Et pourquoi donc ? Sans test concret comment tu peux dire ça sans extrapoler ?

En te basant sur quoi ? Sur des distances et des définitions qui n'ont rien à voir ou décrivent un cas précis ?
Je me base sur l'article qui se base sur les limites de l'œil humain. Je ne vois pas de faille dans ce raisonnement donc je pense que c'est une bonne base pour estimer les gains des différentes résolutions. Si tu vois un souci dans cette méthode, merci de le partager.

par Nanabozo732 le Vendredi 09 Mai 2014 à 16h50
En suivant cette logique à 5m tu peux même apprécier du 640x480p sur un 50" et t'auras p'tet l'impression de mater un BR en 1080p et faudra donc un écran de 140" pour qu'un film UHD ou 4K génère une différence flagrante.
Difficile de dire une taille précise car ces résolutions sont en dehors du graphique, mais oui il faudra un écran de plus de 120".

par Nanabozo732 le Vendredi 09 Mai 2014 à 16h50
Sauf que comme je sous-entendais plus tôt, si on regarde son écran d'assez prêt le gain visuel apporté par une plus grande définition sera palpable bien avant de passer à une dalle de 80".
Peux-tu être plus précis ? À quelle distance de quelle taille d'écran ?

par Nanabozo732 le Vendredi 09 Mai 2014 à 16h50
Surtout que ce qu'apportent ces nouvelles réso ne se limite pas seulement au pitch, la colorimétrie et le gamut franchissent un cap eux-aussi.
Peut-être, mais quel rapport avec la résolution 4K ? C'est lié à la qualité des écrans, pas à la résolution.