COMPTOIR
  
register

Hard du hard • Connecteurs vidéo & définitions

• Mais le HDMI avait pensé à un raccourci

Du 5120x2880@30/60 Hz, 2560x2048@120 Hz et 2560x1600@144 Hz au max en HDMI 2.0

Standard, standard... pas tant que ça au début. La Péritel et le DVI ont longtemps fait de la résistance. En même temps, allez dire à Mme Michu qu'elle doit se séparer de son magnétoscope et de son lecteur DVD parce qu'elle a changé de TV. Il a fallu attendre la sortie des consoles xBox 360 et sa quasi-jumelle PS3 (en 2006 donc) pour voir l'HDMI commencer sa domination. Il n'empêche qu'en décembre 2002, la connectique signifiant High Definition Multimedia Interface était née et elle n'était pas si loin de sa copine DVI. En effet, dans ses versions 1.0, 1.1, 1.2 et 1.2a, le HDMI offre une bande passante de 4,9 Gbit/s via la technologie TDMS et permet d'afficher du 1080p ou de l'UXGA au maximum (1600x1200) à 60 Hz. Le véritable intérêt par rapport au DVI réside dans la possibilité de faire circuler des signaux sonores compressés comme DTS ou Dolby Digital, ou non compressés avec un taux d'échantillonnage de 192kHz/24bits, tout ça sur 8 canaux. Pour continuer avec le détail de la connectique, voilà à quoi ressemble le câblage d'un connecteur HDMI de type A :

 

Pin HDMI  

Légende : Canaux, Masse, DDC, +5V, TMDS

 

En juin 2006, avec la norme HDMI 1.3, la bande passante a évolué pour atteindre à 10,2 Gbit/s. L'espace de couleur également été revu et les formats sonores compressés Dolby TrueHD et DTS-HD Master Audio des Blu-ray et HD DVD sont devenus compatibles. C'est aussi à cette date qu'est apparu le connecteur mini-HDMI de Type C sur lequel nous reviendront.

En 2009, la norme HDMI 1.4 a apporté la prise en charge des écrans 3D stéréoscopiques (même si la 1.3 est suffisante pour de la 3D 1080i). Il devient alors possible d'utiliser le câble pour un retour audio ou comme câble réseau Ethernet bidirectionnel avec un débit de 100 Mb/s. Pas du plus utile dit comme cela, mais certaines rare smart TV reposent toutefois sur ce principe. Nous arrivons ensuite à l'ère de la 4K pour laquelle il devient possible d'afficher du 4096x2160 à 24 Hz ou de l'UHD 3840x2160 à 24/25/30 Hz. Parallèlement arrive le connecteur micro-HDMI, moitié moins grand que le mini-HDMI ; il est aussi appelé Type D.

En septembre 2013 est introduit le HDMI 2.0 capable d'afficher de la 4K à 60 images par seconde grâce à un débit maximal TDMS évoluant de 3,4 Gbit/s à 6 Gbit/s (soit 18 Gbit/s au total).

Avec l'HDMI 2.1, sorti en janvier 2017, le standard s'est offert un bond en avant considérable avec une augmentation de sa bande passante d'un facteur 2,66 pour atteindre 48 Gbit/s, de quoi afficher la 8K 30 Hz la main dans le slip, si tant est que vous ayez un moniteur compatible. Un format de compression, nommé DSC, voir page suivante — Display Stream Compression — permet en outre de diminuer le nombre de bits envoyé, ici aussi sous conditions de compatibilité, ce qui fait alors monter la définition maximum à... 10K 120 Hz !

Enfin, début 2025, lors du CES, le HDMI Forum a dévoilé la version 2.2. Au programme : débit doublé, qui passe donc à 96 Gbit/s, et incorporation de LIP, acronyme de Latency Indication Protocol, pour une meilleure synchronisation de l'image et du son.

 

HDMI1.01.11.21.31.42.02.0a2.0b2.12.2
Millésime 2002 2004 2005 2006 2009 2013 2015 2016 2017 2025
Fréquence d'horloge 165 MHz 340 MHz 600 MHz 1,2 GHz ?
Débit par canal 1,65 Gb/s 3,4 Gb/s 6 Gb/s 12 Gb/s ?
Débit total 4,95 Gb/s 10,2 Gb/s 18 Gb/s 48 Gb/s 96 Gb/s
Débit audio 36,86 Mb/s 49,152 Mb/s ?
Profondeur de couleur 24 bit/pxl 48 bit/pxl 48 bit/pxl HDR 48 bit/pxl HDR10+, Dolby Vision, Hybrid log-gamma ?
Et ça affiche du 1920x1200
60 Hz
1920x1200
60 Hz
1920x1200
60 Hz
2560x1600
75 Hz
4096x2160
30 Hz
4096x2160
60 Hz
7680×4320 120 Hz 12288x6480 120 Hz

Tableau de comparaison des versions (c) Wikipedia

 

Puisque vous être désormais au point sur l'évolution de la technologie sous-jacente, nous pouvons nous intéresser au connecteur en lui-même. Il existe sous quatre formats qui portent simplement les noms de Type A, Type B, Type C et Type D - très original ! Le Type A est le plus commun, il se compose de 19 broches et se trouve à l'arrière de toutes les télévisions. Le Type B était l'équivalent du DVI-I Dual-Link, mais la version 1.3 de la connectique HDMI l'a rendu obsolète en offrant un taux de transfert de 20,4 Gb/s. Le Type C est apparu avec la norme HDMI 1.3 et on l'appelle aussi mini-HDMI, il est similaire au Type A, mais en plus petit (10,42 mm x 2,42 mm) pour gagner de la place. Le Type D est apparu avec la norme HDMI 1.4 et son format encore plus réduit (2,8 mm x 6,4 mm) lui a valu le nom de micro-HDMI, un outil bien pratique à une époque où les appareils deviennent de plus en plus fins.

 

HDMI Type A, C et D

HDMI Type A, mini-HDMI (Type C) et micro-HDMI (Type D), le Type B était en retard pour la photo de classe

 

Par contre, le HDMI est un connecteur conçu par un regroupement de marques (Sony, Thomson, Panasonic, Philips, Hitachi, Toshiba...) alors que le consortium VESA (Video Electronics Standards Association), un concurrent, avait aussi lui aussi vu que le transfert de flux audio manquait, c'est pourquoi ils avaient également une proposition à faire en 2006 : le DisplayPort.



Un poil avant ?

Cabine • Lian LI UNI FAN P28

Un peu plus tard ...

Test • Intel Nuc 13 Extreme Raptor Canyon

Les 61 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Ghost Line embusqué, le Lundi 13 Août 2018 à 13h06  
Petite note pour la postérité : les connecteurs CGA et EGA étaient nativement en DB9 (DE 9 pour être exact).
par Almist, le Lundi 13 Novembre 2017 à 10h24  
très sympa ce petit guide !
Message de dotarie supprimé par un modérateur : Bot
par Un ragoteur sans nom embusqué, le Vendredi 24 Avril 2015 à 15h15  
bizarrement, je suis en 2560x1440 @ 120hz avec du DVI dual Link
par Un ragoteur très inspir, le Mercredi 11 Mars 2015 à 08h18  
hello à tous
j'ai une carte vidéo avec 2 sorties DVI Dual-Link (une GTX750Ti de Palit, fanless).
connaissez vous des moniteur UHD (voire 4K) qui disposeraient de 2 entrées DVI-DL (ou HDMI)
bah oui, vous voyez où je veut en venir... brancher 2 câbles en parallèle pour atteindre de l' UHD à 60Hz.
Je sais que Dell proposait ça sur ses premiers moniteurs UHD mais est-ce que ça a été repris par d'autres?
par Guillaume H., le Mardi 10 Mars 2015 à 14h12  
par Frann, le Vendredi 06 Mars 2015 à 10h37
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
Merci

Sur le papier (c'est du calcul théorique), l'HDMI 1.4 devrait y arriver. Après, les mystères de l'informatique...
par Frann, le Vendredi 06 Mars 2015 à 10h37  
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
par Darkwa, le Lundi 02 Mars 2015 à 00h02  
Hello, je ne lis votre article que maintenant, mais il reste très intéressant !
Par contre, j'aurais bien aimé un point sur les adaptateurs, car personnellement je m'y perd un peu.. (C'est particulièrement vrai pour les adaptateurs DP -> autre chose)
par Guillaume H., le Vendredi 20 Février 2015 à 10h01  
C'est le mode PC des TV branchées en DVI qui change tout. Pour avoir essayé sur trois TV pas vraiment récentes, le désactiver ne change rien. Le pire étant les anciennes TV qui ne gèrent pas un PC branché en HDMI (écritures floues). La norme HDMI a été pensée pour les TV par un regroupement de constructeurs de TV alors que le DVI a été pensé PC dès le début. Aujourd'hui les choses se sont améliorées en HDMI, mais ça n'empêche que des problèmes subsistent.
par Un ragoteur sans nom de Picardie, le Jeudi 19 Février 2015 à 20h46  
par SRL, le Jeudi 19 Février 2015 à 18h19
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
Oui, c'est ce que je pense aussi. Pourtant j'ai bien pris le temps de désactiver toute les améliorations d'images et d'utiliser le mode cinéma qui est censé désactiver tout les post-traitement interne.
Comme tu dis, il doit rester un filtrage interne qui ne peut se désactiver. Par exemple, en HDMI, lorsque je passe la température des couleurs de normal à chaude 2, les sous-titres des films s'améliore. Faudra que je teste l'HDMI/DVI sur un "simple " moniteur, mais j'en n'ai pas sous la main. En tout cas, merci de ton aide
par SRL, le Jeudi 19 Février 2015 à 18h19  
par Un ragoteur midediouuu de Picardie, le Jeudi 19 Février 2015 à 17h19
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
par Un ragoteur midediouuu de Picardie, le Jeudi 19 Février 2015 à 17h19  
par SRL, le Mercredi 18 Février 2015 à 20h04
Les logiciels utilisés pour le décodage influent pas mal sur la qualité de l'image. Le décodage des platines BD sont mauvaises pour la plupart (sans parler de celles qui rament) et certains logiciels comme PowerDVD ont choisi la rapidité du décodage au détriment de la qualité.
On peut voir un comparatif de quelques décodeur sur cette page dans des conditions extrêmes. http://forum.doom9.org/showthread.php?t=146228
OK, merci pour le lien...
Mais mise à part les logiciels PC, pour ceux qui ont un moniteur avec 2 entrées (hdmi et DVI) ,
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.