COMPTOIR
register

Hard du hard • Connecteurs vidéo & définitions

• Au début, il y avait le D-SUB

Pour du 2560x1600@30 Hz ou 1920x1080@60 Hz au grand max avec un RAMDAC à 400 MHz !

Les connecteurs D-SUB ont été un peu mangés à toutes les sauces : certains se souviendront du port série ou DB-9, mais le plus connu reste le connecteur VGA. C'est IBM qui a mis sur le marché ce standard en 1987, en même temps que le PS/2 et la MCGA (Multi-Color Graphics Array) qui était une définition d'écran de 320x200 pixels. Pour être vraiment précis, le nom réel de ce connecteur est DE-15 (connecteur D-SUB de type E à 15 broches) et il ne se limite pas à la norme VGA puisqu'il est capable d'afficher du MCGA (320x200), EGA (640x350), VGA (640x480), SVGA (800x600), XGA (1024x768), SXGA (1280x1024), UXGA (1600x1200) et QXGA (2048x1536). Il a aussi eu le droit à une version mini-VGA du nom de DE-9 (à 9 broches) qui a pu être trouvée sur certaines cartes graphiques, mais qui n'a pas eu grand succès.

 

Connectique VGA

Le papa et la maman VGA

 

Ce sont des signaux RGBHV+ et DDC2 qui circulaient à travers les câbles et connecteurs à cette norme. Le RGB étant la norme vidéo analogique (hé oui, avant d'être la nome anale-colorimétrique des périphériques gamers), les H et V représentant les synchronisations horizontales et verticales et le signal numérique DCC2 étant là pour l'identification des moniteurs. Si on s'intéresse au câblage de l'ensemble, ça donne ceci :

 

Conectique VGA

Signaux Rouge, Vert, Bleu, Synchro H et V, Masse, SDA/SCL, +5V

 

Nous sommes donc en présence de la connectique analogique alors que nos braves PC sortent du numérique, comment faisait-on pour passer de l'un à l'autre ?

 

Les cartes graphiques étaient équipées d'un RAMDAC (Random Access Memory Digital Analog Converter) composé de trois DAC - un par couleur - eux-mêmes accompagnés de SRAM. Ce petit monde transformait les informations numériques (24 bits de données réparti selon 3 fois 8 bits par couleur) du GPU en signal analogique, utilisable par l'écran. Hé oui, sortez la Delorean, nous sommes à l'époque du CRT (vous savez bien, les gros écrans pas très catholiques cathodiques). D'où l'utilisation de connectique analogique, pour lesquelles il fallait alors se heurter aux limites technologiques qui en découlaient, même si nous n'avions alors pas à nous soucier de rémanence sur ces engins.

 

La rémanence est devenue un problème avec l'arrivée des écrans LCD (en effet, leurs cristaux ne réagissant pas assez vite et laissent voir deux images superposées dès lors que les scènes deviennent un tant soit peu nerveuses), qui pour le coup laissaient tomber l'analogique pour du numérique. Notre brave câble VGA s'est donc retrouvé totalement has been puisqu'il passait un signal numérique en analogique pour qu'il soit une nouvelle fois converti d'analogique à numérique par l'écran : une optimalité proche des meilleures administrations bureaucratiques. Et là, il a fallu réfléchir à une façon de faire différente.



Un poil avant ?

Cabine • Lian LI UNI FAN P28

Un peu plus tard ...

Test • Intel Nuc 13 Extreme Raptor Canyon

Les 61 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Ghost Line embusqué, le Lundi 13 Août 2018 à 13h06  
Petite note pour la postérité : les connecteurs CGA et EGA étaient nativement en DB9 (DE 9 pour être exact).
par Almist, le Lundi 13 Novembre 2017 à 10h24  
très sympa ce petit guide !
Message de dotarie supprimé par un modérateur : Bot
par Un ragoteur sans nom embusqué, le Vendredi 24 Avril 2015 à 15h15  
bizarrement, je suis en 2560x1440 @ 120hz avec du DVI dual Link
par Un ragoteur très inspir, le Mercredi 11 Mars 2015 à 08h18  
hello à tous
j'ai une carte vidéo avec 2 sorties DVI Dual-Link (une GTX750Ti de Palit, fanless).
connaissez vous des moniteur UHD (voire 4K) qui disposeraient de 2 entrées DVI-DL (ou HDMI)
bah oui, vous voyez où je veut en venir... brancher 2 câbles en parallèle pour atteindre de l' UHD à 60Hz.
Je sais que Dell proposait ça sur ses premiers moniteurs UHD mais est-ce que ça a été repris par d'autres?
par Guillaume H., le Mardi 10 Mars 2015 à 14h12  
par Frann le Vendredi 06 Mars 2015 à 10h37
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
Merci

Sur le papier (c'est du calcul théorique), l'HDMI 1.4 devrait y arriver. Après, les mystères de l'informatique...
par Frann, le Vendredi 06 Mars 2015 à 10h37  
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
par Darkwa, le Lundi 02 Mars 2015 à 00h02  
Hello, je ne lis votre article que maintenant, mais il reste très intéressant !
Par contre, j'aurais bien aimé un point sur les adaptateurs, car personnellement je m'y perd un peu.. (C'est particulièrement vrai pour les adaptateurs DP -> autre chose)
par Guillaume H., le Vendredi 20 Février 2015 à 10h01  
C'est le mode PC des TV branchées en DVI qui change tout. Pour avoir essayé sur trois TV pas vraiment récentes, le désactiver ne change rien. Le pire étant les anciennes TV qui ne gèrent pas un PC branché en HDMI (écritures floues). La norme HDMI a été pensée pour les TV par un regroupement de constructeurs de TV alors que le DVI a été pensé PC dès le début. Aujourd'hui les choses se sont améliorées en HDMI, mais ça n'empêche que des problèmes subsistent.
par Un ragoteur sans nom de Picardie, le Jeudi 19 Février 2015 à 20h46  
par SRL le Jeudi 19 Février 2015 à 18h19
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
Oui, c'est ce que je pense aussi. Pourtant j'ai bien pris le temps de désactiver toute les améliorations d'images et d'utiliser le mode cinéma qui est censé désactiver tout les post-traitement interne.
Comme tu dis, il doit rester un filtrage interne qui ne peut se désactiver. Par exemple, en HDMI, lorsque je passe la température des couleurs de normal à chaude 2, les sous-titres des films s'améliore. Faudra que je teste l'HDMI/DVI sur un "simple " moniteur, mais j'en n'ai pas sous la main. En tout cas, merci de ton aide
par SRL, le Jeudi 19 Février 2015 à 18h19  
par Un ragoteur midediouuu de Picardie le Jeudi 19 Février 2015 à 17h19
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
par Un ragoteur midediouuu de Picardie, le Jeudi 19 Février 2015 à 17h19  
par SRL le Mercredi 18 Février 2015 à 20h04
Les logiciels utilisés pour le décodage influent pas mal sur la qualité de l'image. Le décodage des platines BD sont mauvaises pour la plupart (sans parler de celles qui rament) et certains logiciels comme PowerDVD ont choisi la rapidité du décodage au détriment de la qualité.
On peut voir un comparatif de quelques décodeur sur cette page dans des conditions extrêmes. http://forum.doom9.org/showthread.php?t=146228
OK, merci pour le lien...
Mais mise à part les logiciels PC, pour ceux qui ont un moniteur avec 2 entrées (hdmi et DVI) ,
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.