Que cachent donc les entrailles d'un écran G-Sync Ultimate ? |
————— 22 Octobre 2021 à 07h15 —— 23832 vues
Que cachent donc les entrailles d'un écran G-Sync Ultimate ? |
————— 22 Octobre 2021 à 07h15 —— 23832 vues
Les écrans G-Sync Ultimate, anciennement G-Sync HDR, représentent le haut du panier du moniteur certifié par le Caméléon, derrière le G-Sync tout court avec un module hardware moins couillu et le G-Sync Compatible sans module. Rappelons que le FreeSync, l'adaptive sync d'AMD, fonctionne sans hardware supplémentaire et est par conséquent aussi beaucoup plus accessible aux joueurs, tandis que les écrans G-Sync ou G-Sync Ultimate sont sensiblement plus onéreux. Ce surcoût, NVIDIA le justifie depuis toujours par un hardware dédié garantissant soi-disant une meilleure expérience virtuelle, avec une latence très basse, de meilleures performances en cas de niveau de FPS très faible et une compatibilité avec le HDR. En contrepartie, il faut naturellement s'enfermer dans l'écosystème des verts. Ce choix est une décision personnelle, nous ne sommes pas là aujourd'hui pour en débattre.
En pratique, les écrans G-Sync (Ultimate) sont tout de même beaucoup passés au second plan depuis l'arrivée du G-Sync Compatible, une ouverture longtemps espérée qui a enfin permis l'émergence d'écrans — dont la liste s'allonge jour après jour — pouvant offrir un support de l'adaptive sync simultanément aux Radeon et aux GeForce — que cette solution soit la plus populaire des trois ne sera donc évidemment une surprise pour personne. En sus, le G-Sync hardware n'est à ce jour toujours pas compatible HDMI 2.1, ce qui ne doit pas aider non plus.
En attendant, les écrans G-Sync Ultimate en particulier ont visiblement tout de même une bonne raison pour être coûteux et donc virtuellement haut de gamme, celle-ci se trouve sous le capot arrière du moniteur, comme nous le montre aujourd'hui Igor's Lab. L'auteur de l'article a mis la main sur un AGON AG353UCQ d'AOC à titre privé, un investissement de 1800 € assez déraisonnable selon lui pour ses usages — mais que ne ferait-on pas parfois pour la science et le plaisir. Certains se souviendront peut-être que le module G-Sync HDR, apparu en 2018, imposait déjà l'usage d'une ventilation active, une première pour un écran plat gaming et une « innovation » assez malvenue, celle-ci sachant parfois se faire remarquer. Dans le cas de l'AGON, son existence — non déclarée — a d'ailleurs directement sauté aux oreilles du testeur, l'encourageant d'explorer les profondeurs du moniteur et d'aller au fond des choses.
Première découverte, la présence d'un radiateur massif en cuivre (sans chambre à vapeur, semblerait-il), avec une base en cuivre et 5 caloducs, une bonne quantité de pâte thermique et un ventilateur radial comme dans les ordinateurs portables. L'expérience d'un fonctionnement en passif façon X570S n'a rien donné, l'écran s'est coupé et s'est mis en protection pour cause de température critique au bout de 30 minutes de jeu, avec un HDR en basse luminosité. Deuxième découverte, le système refroidissement sert en fait a dissiper les calories d'une puce Altera Arria 10 soudée sur un module PCB individuel, qui n'est pas sans rappeler le format MXM d'une carte graphique mobile. La puce en question porte le numéro de série 10AX048H2F34E1HQ. On trouvera donc facilement qu'il s'agit d'une solution FPGA de chez Intel. L'avantage, c'est que ce type de puce est programmable à souhait via software, l'inconvénient c'est que ce genre de solution est bien plus couteux par rapport à une puce classique. Vous trouverez de nombreux détails techniques ici, chez Intel.
C'est donc une assez grosse puce, dont la consommation variera en fonction de la programmation. Mais la taille du refroidissement suggère qu'elle sera ici souvent supérieure à celle d'un chipset de desktop. Avec ceci, ce FPGA coute au bas mot au moins environ 2000 € l'unité auprès d'un revendeur. Le prix baisse forcément en fonction de la quantité et on imagine bien que NVIDIA achète ses palettes directement auprès d'Intel. Mais même en supputant un prix à l'unité de 1000 € environ pour la puce seule, cela interroge et amène à se demander si certains écrans G-Sync Ultimate ne sont pas vendus à perte... Perte absorbée par NVIDIA pour promouvoir coûte que coûte son écosystème G-Sync et GeForce, et polir son image de marque « suprême » pour les joueurs ? Allez savoir. En tout cas, on comprendrait mieux pourquoi les écrans G-Sync Ultimate sont si peu nombreux, difficile d'exciter les fabricants pour élaborer des moniteurs qui offrent peut-être une marge assez faible.
NVIDIA a certainement choisi le FPGA pour sa flexibilité, créer une solution customisée aurait probablement été encore plus coûteux, du moins initialement, et il n'est pas dit que cela eut réellement été plus intéressant, surtout si NVIDIA prévoyait déjà dès le départ qu'il n'allait pas vraiment brasser une grosse quantité de solutions G-Sync Ultimate. On serait d'ailleurs bien curieux de connaître le volume réellement vendu, que l'on imaginera plutôt assez faible. Finalement, on pourra donc s'interroger : quel avenir pour le G-Sync hardware chez NVIDIA ?