COMPTOIR
  
register

Le G-SYNC de NVIDIA se dévoile à la BlizzCon 2013

On vous en parlait il y a peu, le G-SYNC est un module pour écran permettant au GPU de synchroniser l'écran au taux d'images qu'il lui balance. Cette technologie promet d'éradiquer les saccades, lag, tearing enfin bref, un affichage plus fluide et agréable en toute circonstance. Un partenariat entre le caméléon et les constructeurs Asus, BENQ, Philips et Viewsonic permet à la chose d'exister, le catalogue 2014 de ces marques planifiant son inclusion sur certains de leurs produits.

Nos confrères de chez LegitReviews ont eu l'occasion de se rendre à la BlizzCon et de voir et filmer la chose en action. Ce n'est pas forcément idéal pour aprécier la techno, mais c'est toujours mieux que rien !


Présentateur NVIDIA : "Alors vous voyez, avec le G-SYNC, les pixels bougent alors que sans, ils bougent. C'est flagrant !"

 

Pour les possesseurs d'un ASUS VG248QE, NVIDIA a fait savoir son intention, sans préciser le canal de distribution, qu'ils commercialiseraient en cette fin d'année un kit de modification (en comptant $175 selon le blog Replubic of Gamer d'Asus) pour y intégrer leur nouveau joujou avant la release d'écrans en étant équipés de base, ceux-ci devant arriver premier trimestre 2014. Les utilisateurs de ces marques qui ont besoin d'une réactivité encore plus grande que ce que les écrans aux normes 1ms/120-144Hz peuvent offrir trouveront certainement que c'est une bonne nouvelle. Pour les autres, ce type d'écran pourra orienter votre choix de carte graphique vers les gammes Nvidia à partir de la série 600 (Kepler). Côté gain, on le laisse à votre jugement, il faut vraiment l'avoir sous les yeux pour comprendre ce qui change. Une technologie propriétaire, comme toujours chez NVIDIA, ce qui malgré les partenariats noués risque de lui couter son déploiement à grande échelle ; Ce qui serait plutôt dommage.

 

 nvidia_gsync.jpg

Une petite puce pour l'homme, un grand pas pour le caméléon

Un poil avant ?

Western Digital prêt pour le grand prix de F1 des USA !

Un peu plus tard ...

Jaguar sort ses griffes... ou pas

Les 71 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par 1 ragoteur ki ve 1 ranger de Picardie, le Mardi 12 Novembre 2013 à 22h56  
Normalement gsync = pas de tearing et moins ou pas d inputlag ,donc bien en théorie
mais du coup la fréquence de rafraichissement variera constamment (vu que le nombre d'ips ne sera pas limité, sauf quand on peut le limiter dans le jeu)
N y aura t il pas de sensations désagréables en terme de fluidité? Surtout sur les écran 120 hz et + ?
Ex: si dans le jeu t'est dans un couloir (100 ips) et que tu sors ça pète dans tous les sens et là tu passes a 50 ips
Ensuite si c'est un futur indispensable, pourvu que nvidia fasse en sorte que cette techno soit proposée pour tous, sinon ça sera certainement un échec

par Un ragoteur macagneur embusqué, le Mardi 12 Novembre 2013 à 10h40  
par Un ragoteur qui revient de California, le Lundi 11 Novembre 2013 à 15h24
J'en peux plus de lire cette tirade Damien, PERSONNE ici n'est qualifié pour dire que telle ou telle stratégie est bonne ou pas pour Nvidia.
On peut peut-être pas prédire l'avenir de NVidia, mais on peut juste constater que PhysX se casse la gueule et que CUDA est en sursis avec la montée en charge d'OpenCL. Et accessoirement, parce que ça ralenti l'adoption d'un standard commun...
par Un ragoteur inspiré du Limousin, le Mardi 12 Novembre 2013 à 01h53  
par Un ragoteur lambda de Picardie, le Lundi 11 Novembre 2013 à 12h14
En quoi ? Car le gsync est en fait l'ancienne appellation utilisé par nvidia et depuis remplacé par quadro sync, je cite l'article que tu nous montre :

Tu peux d'ailleurs trouver des doc datant de 2006 sur internet :
ftp://download.nvidia.com/Windows/Quadro_Certified/91.36/91.36_Quadro_G-Sync_User_Guide.pdf
En 2006 on parlait déjà de gsync...
Justement, si tu lis ce qu'indique la doc, ce n'est pas la meme chose que ce que fait le nouveau g-sync.
par Damien, le Lundi 11 Novembre 2013 à 16h52  
par Un ragoteur lambda de Picardie, le Lundi 11 Novembre 2013 à 15h49
Bah si les gens préfère allez voir la concurrence ca ne sera effectivement pas avantageux pour nvidia, et dans ce cas il se pourrait qu'ils changent de position.

Je peux aussi te ressortir des exemples démontrant que dans certains cas le propriétaire a dominé le libre (pour les part de marché ) : DirectX vs OpenGL, Windows vs Linux, Office vs OpenOffice...
En fait on ne parle pas de la même chose, je ne dis pas que NVIDIA devrait rendre la techno G-SYNC en licence libre mais ouvrir le marché, c'est pas pareil.

Donc à titre d'exemple ce n'est pas Windows vs Linux mais Apple vs Microsoft (pour le domaine de l'informatique) :
Apple a voulut garder le contrôle du marché des ses ordinateurs en étant proprio du HW+SW alors que Microsoft a préféré ouvrir le marché (en faisant un partenariat avec IBM).
Résultat, Microsoft à inondé le marché, il est devenu incontournable, les fabricants de PC ont donc orientés leurs machines exclusivement vers l'univers Microsoft. Et voilà, Microsoft à le quasi monopole, et l'arrivée d'un concurrent est presque impossible (linux en est un mais il ne pourra jamais concurrencer Microsoft).

Pour NVIDIA avec G-SYNC c'est pareil qu'Apple, il ne vont occuper qu'une niche du marché, la techno restera confidentielle.
par Un ragoteur lambda de Picardie, le Lundi 11 Novembre 2013 à 15h49  
par Damien, le Lundi 11 Novembre 2013 à 15h02
Donc non, ce n'est pas avantageux pour une société comme NVIDIA de rendre ces technologies propriétaires.
Bah si les gens préfère allez voir la concurrence ca ne sera effectivement pas avantageux pour nvidia, et dans ce cas il se pourrait qu'ils changent de position.

Je peux aussi te ressortir des exemples démontrant que dans certains cas le propriétaire a dominé le libre (pour les part de marché ) : DirectX vs OpenGL, Windows vs Linux, Office vs OpenOffice...
par Un ragoteur qui revient embusqué, le Lundi 11 Novembre 2013 à 15h45  
par Un ragoteur sans nom de Rhone-Alpes, le Lundi 11 Novembre 2013 à 15h38
Tu n'as rien compris à cette techno. Le vsync fonctionne très bien, le seul problème c'est que ça coute très cher en perfs. Le gsync te donne tous les avantages du vsync avec les perfs du vsync désactivé. Ce n'est pas un maigre plus, c'est une avancée majeure dans le jeu video. On peut en théorie gagner jusqu'à 50% de perfs donc bien plus bénéfique aux petites configs qu'aux hardcore gamers.
ahAHAhaHa n'importe quoi
par Un ragoteur sans nom de Rhone-Alpes, le Lundi 11 Novembre 2013 à 15h38  
par cha embusqué, le Lundi 11 Novembre 2013 à 13h04
Ouais, mais 175$ + fixé à l'écran + obligé d'avoir une nvidia uniquement pour ça, ça concerne 1% des joueurs et encore. Pour 99% qui se masturbent intellectuellement sur les topics ça n'a aucun intérêt.
Aucun tearing et aucun soucis avec le vsync, le gsync n'est qu'un tout petit maigre plus, faut juste arrêter deux seconde l'hystérie collective autour de ce gadget, ça ne justifiera jamais ni son prix ni l'achat d'une carte nvidia, qu'ils le vendent gratuit dans les écrans à la rigueur ça sera un bonus, sinon osef total.
Ils sont en train de faire croire que le vsync fonctionne mal ou que les écrans 120htz ne sont pas suffisant ou je ne sais quoi, c'est du nimporte quoi.
Ce truc concerne les 1% des gens qui ont une config hardcore et qui veulent peaufiner. +
Tu n'as rien compris à cette techno. Le vsync fonctionne très bien, le seul problème c'est que ça coute très cher en perfs. Le gsync te donne tous les avantages du vsync avec les perfs du vsync désactivé. Ce n'est pas un maigre plus, c'est une avancée majeure dans le jeu video. On peut en théorie gagner jusqu'à 50% de perfs donc bien plus bénéfique aux petites configs qu'aux hardcore gamers.
par Un ragoteur qui revient de California, le Lundi 11 Novembre 2013 à 15h24  
J'en peux plus de lire cette tirade Damien, PERSONNE ici n'est qualifié pour dire que telle ou telle stratégie est bonne ou pas pour Nvidia.
par Damien, le Lundi 11 Novembre 2013 à 15h02  
par Un ragoteur qui se tâte de Picardie, le Dimanche 10 Novembre 2013 à 21h28
Le but premier d'un entreprise est de faire le plus de profit, donc il est plus pertinent pour nvidia ou n'importe quel constructeur d'utiliser une technologie propriétaire si des gens sont prêt à investir dans cette techno.
Par contre il serait moins pertinent pour eux de la rendre propriétaire si les gens préfère allez voir l'équivalent libre chez la concurrence, mais ce n'est pas le cas, notamment grâce au marketing...
Bien sûr que le but d'une société est de gagner de l'argent, mais il y a plusieurs façons de le faire. Selon moi, utiliser des techno propriétaire n'est pas une bonne solution, surtout pour une grande société comme NVIDIA, mais ça n'engage que moi.

L'histoire de l'informatique tend à le prouver, pourquoi Apple et IBM ne sont pas des leaders du marché informatique ? Pourquoi Bill Gates à fait fortune et pas Gary Kildall ?
Pourquoi Google se porte aussi bien ? Comment les smartphones Android ont-ils pu inonder le marché en si peu de temps, garantissant des bénéfices records à Google ?

Donc non, ce n'est pas avantageux pour une société comme NVIDIA de rendre ces technologies propriétaires.
La seule explication convaincante et plausible est qu'NVIDIA ne juge pas la technologie G-SYNC comme innovante et incontournable, ils préfèrent vendre leurs produits avec un max de marge mais à petite échelle.
par cha embusqué, le Lundi 11 Novembre 2013 à 13h04  
Ouais, mais 175$ + fixé à l'écran + obligé d'avoir une nvidia uniquement pour ça, ça concerne 1% des joueurs et encore. Pour 99% qui se masturbent intellectuellement sur les topics ça n'a aucun intérêt.
Aucun tearing et aucun soucis avec le vsync, le gsync n'est qu'un tout petit maigre plus, faut juste arrêter deux seconde l'hystérie collective autour de ce gadget, ça ne justifiera jamais ni son prix ni l'achat d'une carte nvidia, qu'ils le vendent gratuit dans les écrans à la rigueur ça sera un bonus, sinon osef total.
Ils sont en train de faire croire que le vsync fonctionne mal ou que les écrans 120htz ne sont pas suffisant ou je ne sais quoi, c'est du nimporte quoi.
Ce truc concerne les 1% des gens qui ont une config hardcore et qui veulent peaufiner. +
par Un ragoteur sans nom de Rhone-Alpes, le Lundi 11 Novembre 2013 à 12h56  
Ceux qui connaissent un peu les api 3d (openGL ou directX) savent bien pourquoi cette techno est géniale: dans ces api il n'est jamais question de taux de rafraichissement ou autre, ce sont des notions implémentées pour nous, qu'on ne peut pas optimiser et qui peuvent créer des problèmes de perf importants (cf le frame pacing d'amd). Avec le gsync, un "present" sur le buffer signifie "affichage à l'écran" immédiat sans artefact du buffer précédent. Il n'y a que des avantages (hormis peut être le surcout).
par Un ragoteur sans nom de Rhone-Alpes, le Lundi 11 Novembre 2013 à 12h46  
par $i embusqué, le Lundi 11 Novembre 2013 à 00h13
Il n'y a eu aucun test avec des personnes indépendantes ayant eu ce truc et pouvant vraiment voir ce que ça donne en le mettant en pratique eux-mêmes, alors avec de crier à l'innovation de la décennie dans les commentaires ou même dans les news, faudrait mettre un peu de nuances en disant "éventuellement" par exemple, ça serait déjà bien.

Puis toute façon la plus grosse innovation dans le gaming de ces dernières années, c'est l'Occulus Rift loin devant toute autre chose.
Je parlais de l'idée en elle même et non de sa réalisation. C'est évident que tout le monde va faire comme ça maintenant. Le mode de rafraichissement automatique à une fréquence donnée n'a aucun sens pour un pc, c'est juste une contrainte technique qui casse les pieds à tout le monde et dégrade l'expérience de jeu.
L'occulous rift c'est une super idée c'est vrai