COMPTOIR
  
register

Hard du hard • Connecteurs vidéo & définitions

• Et finit par s'égarer pour devenir... Thunderbolt

5120x2880@30/60 Hz, 2560x2048@120/144 Hz pour le cousin du DisplayPort !

Né d'un partenariat Apple/Intel, le duo a commencé à bosser sur ce projet en 2007 sous le nom de Light Peak. Pour ceux qui s'en souviennent, le principe était carrément de faire usage de fibres optiques à la place du cuivre. La promesse était alors de créer un câble capable d'offrir une bande passante de 100 Gbit/s, de quoi remplacer les connectiques FireWire, USB, DisplayPort, Jack, Ethernet et SATA, du tout-en-un quoi.

Ça n'est pour l'instant pas encore le cas (la fibre est trop fragile pour un usage domestique) et les fils de cuivre sont toujours d'actualité, cependant, pour certains usages ces derniers doivent être réamplifié : nous parlons alors de câble actifs.

Ce standard a vraiment vu le jour en 2009 sous le format d'un connecteur Mini DisplayPort qui a rapidement été repris par la pomme sur ses MacBook Pro, iMac, MacBook Air et Mac mini. Suite à l'ouverture du standard à concurrence, d'autres constructeurs se sont mis à l'intégrer, tel ASUS sur ses ROG, Lenovo sur le ThinkPad W540, GIGABYTE sur une série de cartes mères et HP sur l'Envy 14.

En version 2, la bande passante disponible via un port Thunderbolt était de 20 Gbit/s, mais ce dernier a rapidement été remplacé par la troisième mouture, dévoilée fin 2015 et depuis largement répandu de part du support d'origine sur les chipset Intel mobile à partir de Skylake (6ème génération) et du passage à un port standardisé : l'USB-C. Notez par ailleurs que sa prise en charge meut du chipset au CPU avec l'imminent Ice Lake.

 

cable usc c

Mini-DisplayPort flat-design edition Type-C.

 

Pour la version utilisée aujourd'hui, elle diffère du DisplayPort par le fait que le Thunderbolt propose deux liens DisplayPort 1.4 pour chaîner les écrans là où le premier cité partage la bande passante sur un seul lien. De plus, si une autre utilisation devait être retenue, c'est bien celle permettant de connecter une carte graphique format desktop à un ordinateur portable muni de cette connectique afin d'augmenter ses capacités... Mais celà s'éloigne de notre sujet des connectiques vidéos

 

usb type c pinout

Schéma de la connexion USB-C (symétrique) sur Thunderbolt : RX et TX peuvent fusionner pour doubler le débit vidéo si besoin, ou garder l'USB SuperSpeed. Vbus= +5 V, GND = masse, D+/D- et SBU = canaux auxiliaires, CC = canaux de contrôle

 

Thunderbolt
Version 1 2 3 3 (via DP 2.0) 4
Sorti en 2011 2013 2016 2019 2020
Débit par canal 10 Gb/s 20 Gb/s 40 Gb/s 40 Gb/s (unidirectionnel) 40 Gb/s
Débit total 20 Gb/s 20 Gb/s 40 Gb/s 80 Gb/s 80 Gb/s
Canal auxiliaire 720Mb/s 720 Mb/s 720 Mb/s ? ?
Affichage d'un flux 4096x2160 @60Hz 4096x2160 @60Hz 4096x2160 @120Hz

7680x4320

@60Hz HDR



Un poil avant ?

Cabine • Lian LI UNI FAN P28

Un peu plus tard ...

Test • Intel Nuc 13 Extreme Raptor Canyon

Les 61 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Ghost Line embusqué, le Lundi 13 Août 2018 à 13h06  
Petite note pour la postérité : les connecteurs CGA et EGA étaient nativement en DB9 (DE 9 pour être exact).
par Almist, le Lundi 13 Novembre 2017 à 10h24  
très sympa ce petit guide !
Message de dotarie supprimé par un modérateur : Bot
par Un ragoteur sans nom embusqué, le Vendredi 24 Avril 2015 à 15h15  
bizarrement, je suis en 2560x1440 @ 120hz avec du DVI dual Link
par Un ragoteur très inspir, le Mercredi 11 Mars 2015 à 08h18  
hello à tous
j'ai une carte vidéo avec 2 sorties DVI Dual-Link (une GTX750Ti de Palit, fanless).
connaissez vous des moniteur UHD (voire 4K) qui disposeraient de 2 entrées DVI-DL (ou HDMI)
bah oui, vous voyez où je veut en venir... brancher 2 câbles en parallèle pour atteindre de l' UHD à 60Hz.
Je sais que Dell proposait ça sur ses premiers moniteurs UHD mais est-ce que ça a été repris par d'autres?
par Guillaume H., le Mardi 10 Mars 2015 à 14h12  
par Frann, le Vendredi 06 Mars 2015 à 10h37
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
Merci

Sur le papier (c'est du calcul théorique), l'HDMI 1.4 devrait y arriver. Après, les mystères de l'informatique...
par Frann, le Vendredi 06 Mars 2015 à 10h37  
Très bon article

Par contre, dans le premier tableau, il est écrit que le HDMI 1.4 gère le 1920x1200 en 144Hz mais je n'y suis jamais arrivé personnellement ...
Quand je passe mon écran en 144Hz ou 120Hz, je redescend directement en 960p.
Du coup, mon pc est branché en DVI pour pouvoir supporter ces rafraichissements.

J'ai d'ailleurs un peu les boules, ayant hésité entre un BenQ sans DP et un Iyama avec DP, je me sens con
(Mais au final, j'ai fais mon deuil et tout va bien )
par Darkwa, le Lundi 02 Mars 2015 à 00h02  
Hello, je ne lis votre article que maintenant, mais il reste très intéressant !
Par contre, j'aurais bien aimé un point sur les adaptateurs, car personnellement je m'y perd un peu.. (C'est particulièrement vrai pour les adaptateurs DP -> autre chose)
par Guillaume H., le Vendredi 20 Février 2015 à 10h01  
C'est le mode PC des TV branchées en DVI qui change tout. Pour avoir essayé sur trois TV pas vraiment récentes, le désactiver ne change rien. Le pire étant les anciennes TV qui ne gèrent pas un PC branché en HDMI (écritures floues). La norme HDMI a été pensée pour les TV par un regroupement de constructeurs de TV alors que le DVI a été pensé PC dès le début. Aujourd'hui les choses se sont améliorées en HDMI, mais ça n'empêche que des problèmes subsistent.
par Un ragoteur sans nom de Picardie, le Jeudi 19 Février 2015 à 20h46  
par SRL, le Jeudi 19 Février 2015 à 18h19
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
Oui, c'est ce que je pense aussi. Pourtant j'ai bien pris le temps de désactiver toute les améliorations d'images et d'utiliser le mode cinéma qui est censé désactiver tout les post-traitement interne.
Comme tu dis, il doit rester un filtrage interne qui ne peut se désactiver. Par exemple, en HDMI, lorsque je passe la température des couleurs de normal à chaude 2, les sous-titres des films s'améliore. Faudra que je teste l'HDMI/DVI sur un "simple " moniteur, mais j'en n'ai pas sous la main. En tout cas, merci de ton aide
par SRL, le Jeudi 19 Février 2015 à 18h19  
par Un ragoteur midediouuu de Picardie, le Jeudi 19 Février 2015 à 17h19
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.
En lisant un peu plus bas, je viens de voir que tu utilisais un moniteur/TV. Je me demande si la prise HDMI n'est pas traité comme une TV (avec le filtrage qui flatte l'image avec latence) et le DVI qui affiche l'image sans post-traitement.
Ce qui me fait dire ça est que l'unique différence entre DVI et HDMI n'est rien d'autres que le brochage. Les données qui transitent utilisent tous les deux le TDMS (d'où le bête adaptateur passif qui ne converti pas les données d'un standard à l'autre puisqu'il s'agit de la même chose).
par Un ragoteur midediouuu de Picardie, le Jeudi 19 Février 2015 à 17h19  
par SRL, le Mercredi 18 Février 2015 à 20h04
Les logiciels utilisés pour le décodage influent pas mal sur la qualité de l'image. Le décodage des platines BD sont mauvaises pour la plupart (sans parler de celles qui rament) et certains logiciels comme PowerDVD ont choisi la rapidité du décodage au détriment de la qualité.
On peut voir un comparatif de quelques décodeur sur cette page dans des conditions extrêmes. http://forum.doom9.org/showthread.php?t=146228
OK, merci pour le lien...
Mais mise à part les logiciels PC, pour ceux qui ont un moniteur avec 2 entrées (hdmi et DVI) ,
vous branchez une console de salon ou un lecteur de Blu-ray sur l'entrée HDMI et ensuite sur l'entrée DVI avec un adaptateur (bien-sur vous n'aurez pas de son) . Vous allez remarquer qu'il y a une différence entre l'HDMI et le DVI. J'ai essayé tous les réglages possible (niveau HDMI bas ou normal, rgb ou ycbcr, RGB limité ou complet... ) J'ai toujours une différence. Comme je l'ai dit plus bas, en DVI, les noirs sont plus détaillés et les couleurs sont plus naturels. En HHMI, le contraste est meilleurs et les noirs plus profonds.