COMPTOIR
  
register

Hard du hard • Connecteurs vidéo & définitions

• Puis, le DVI vint montrer la voie.

Pour du 4096x2160@30 Hz, 2560x1600@60 Hz, 1920x1200@120 Hz ou 1920x1080@144 Hz, mais pas plus !

La Digital Visual Interface, aussi un temps nommée Digital Video Interface, est une connectique numérique apparue en avril 1999 qui s'est retrouvée malgré elle dédiée aux dalles numériques (bien que ces dernières n'étaient ironiquement pas répandues). Ce nouveau connecteur transporte un signal RGB numérique via trois liaisons LVDS (Low Voltage Differential Signal) sur trois paires torsadées, une par couleur transportant 10 bits d'informations, 8 pour la couleur et 2 pour l'ECC (correction d'éventuelles erreurs). Il évite ainsi une conversion analogique/numérique, ce qui, ajouté à la technologie TMDS (Transition Minimized Differential Signaling) réduisant les interférences électromagnétiques que l'ont subissait en VGA, permet d'offrir en sortie un signal plus stable. En bon gros français : c'est du tout bénef, mais ça n'a pas empêché de décliner cette norme sous différentes moutures.

 

En effet, il existe trois types de connecteurs DVI et cinq modèles en tout : mais oui c'est clair ! Commençons par le DVI-A pour Analogique qui est peu intéressant, car un simple rebranchement du VGA précédent. Ensuite, il y a le DVI-I (Integrated), analogique et numérique (mais pas automatique) lui-même existant en version Single-Link et Dual-Link. Enfin, on trouve le DVI-D (Digital) qui est uniquement numérique... mais qui aussi le droit à deux versions Single-Link et Dual-Link.

 

La famille des DVI

La famille des DVI au grand complet.

 

Single-Link, Dual-Link, oukelé la différence ? Bah le Dual-Link utilise deux fois plus de fils et doublent la bande passante disponible. En Single-Link, elle est de 3,7 Gbit/s ce qui permet d'afficher du 1920x1200 à 60Hz. Et en Dual-Link ? Le double, soit 7,4 Gbit/s, ce qui expliquait la nécessité d'avoir un connecteur DVI-I Dual-Link sur certains écrans de grande taille. La norme DVI peut pousser jusqu'au WQUXGA, c'est à dire 3840x2400 pixels affichés à l'écran. Côté câblage, dans le cas du DVI-I Dual-Link ça donne ça :

 

Pin DVI

Légende : signaux Rouge, Vert, Bleu, Synchro H et V, Masse, DDC, +5V, TMDS

 

Dans la partie droite, les C1 à C5 sont utilisés pour la connexion en analogique avec l'aide du pin n°8. Les deux canaux numériques sont les groupes 1, 2, 9, 10, 17 et 18 pour le premier et 4, 5, 12, 13, 20 et 21 pour le second. Les pins n°23 et 24 s'ajoutent à cela pour l'horloge TMDS dont on parlait précédemment. 

 

Avec l’essor de la 4K, des vitesses de rafraîchissement de 120 et 144 Hz, le DVI rentre dans sa fin de vie, bien que toujours présent chez certaines cartes customs d'entrée ou de milieu de gamme. Il faut dire qu'avec la capacité d'afficher du 60Hz au-dessus du 1440p (en Dual-Link), le standard a de quoi suffire à bon nombre de joueurs. Néanmoins, pour les amateurs de consoles et autres postes de télévision, il fallait trouver un moyen de transmettre des informations audios via un seul et unique câble : et voilà le HDMI.



Un poil avant ?

Cabine • Lian LI UNI FAN P28

Un peu plus tard ...

Test • Intel Nuc 13 Extreme Raptor Canyon

Les 61 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Ghost Line embusqué, le Lundi 13 Août 2018 à 13h06  
Petite note pour la postérité : les connecteurs CGA et EGA étaient nativement en DB9 (DE 9 pour être exact).
par Almist, le Lundi 13 Novembre 2017 à 10h24  
très sympa ce petit guide !
Message de dotarie supprimé par un modérateur : Bot
par Un ragoteur sans nom embusqué, le Vendredi 24 Avril 2015 à 15h15  
bizarrement, je suis en 2560x1440 @ 120hz avec du DVI dual Link
par Un ragoteur très inspir, le Mercredi 11 Mars 2015 à 08h18  
hello à tous
j'ai une carte vidéo avec 2 sorties DVI Dual-Link (une GTX750Ti de Palit, fanless).
connaissez vous des moniteur UHD (voire 4K) qui disposeraient de 2 entrées DVI-DL (ou HDMI)
bah oui, vous voyez où je veut en venir... brancher 2 câbles en parallèle pour atteindre de l' UHD à 60Hz.
Je sais que Dell proposait ça sur ses premiers moniteurs UHD mais est-ce que ça a été repris par d'autres?
par Guillaume H., le Mardi 10 Mars 2015 à 14h12  
par Frann, le Vendredi 06 Mars 2015 à 10h37
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
Merci

Sur le papier (c'est du calcul théorique), l'HDMI 1.4 devrait y arriver. Après, les mystères de l'informatique...
par Frann, le Vendredi 06 Mars 2015 à 10h37  
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
par Darkwa, le Lundi 02 Mars 2015 à 00h02  
Hello, je ne lis votre article que maintenant, mais il reste très intéressant !
Par contre, j'aurais bien aimé un point sur les adaptateurs, car personnellement je m'y perd un peu.. (C'est particulièrement vrai pour les adaptateurs DP -> autre chose)
par Guillaume H., le Vendredi 20 Février 2015 à 10h01  
C'est le mode PC des TV branchées en DVI qui change tout. Pour avoir essayé sur trois TV pas vraiment récentes, le désactiver ne change rien. Le pire étant les anciennes TV qui ne gèrent pas un PC branché en HDMI (écritures floues). La norme HDMI a été pensée pour les TV par un regroupement de constructeurs de TV alors que le DVI a été pensé PC dès le début. Aujourd'hui les choses se sont améliorées en HDMI, mais ça n'empêche que des problèmes subsistent.
par Un ragoteur sans nom de Picardie, le Jeudi 19 Février 2015 à 20h46  
par SRL, le Jeudi 19 Février 2015 à 18h19
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
Oui, c'est ce que je pense aussi. Pourtant j'ai bien pris le temps de désactiver toute les améliorations d'images et d'utiliser le mode cinéma qui est censé désactiver tout les post-traitement interne.
Comme tu dis, il doit rester un filtrage interne qui ne peut se désactiver. Par exemple, en HDMI, lorsque je passe la température des couleurs de normal à chaude 2, les sous-titres des films s'améliore. Faudra que je teste l'HDMI/DVI sur un "simple " moniteur, mais j'en n'ai pas sous la main. En tout cas, merci de ton aide
par SRL, le Jeudi 19 Février 2015 à 18h19  
par Un ragoteur midediouuu de Picardie, le Jeudi 19 Février 2015 à 17h19
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
par Un ragoteur midediouuu de Picardie, le Jeudi 19 Février 2015 à 17h19  
par SRL, le Mercredi 18 Février 2015 à 20h04
Les logiciels utilisés pour le décodage influent pas mal sur la qualité de l'image. Le décodage des platines BD sont mauvaises pour la plupart (sans parler de celles qui rament) et certains logiciels comme PowerDVD ont choisi la rapidité du décodage au détriment de la qualité.
On peut voir un comparatif de quelques décodeur sur cette page dans des conditions extrêmes. http://forum.doom9.org/showthread.php?t=146228
OK, merci pour le lien...
Mais mise à part les logiciels PC, pour ceux qui ont un moniteur avec 2 entrées (hdmi et DVI) ,
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.