COMPTOIR
  
register

Nvidia lance le G-Sync, un module magique pour écrans

Lorsque vous jouez, vous avez pu observer des évènements pénibles comme du stuttering, du lag et sûrement du tearing (phénomène de hachage de l'image), que la synchro soit activée ou pas. Pour que l'image apparaisse fluide en toutes circonstances, il faut donc que l'écran soit alimenté avec un débit d'images fixe, ce qui n'est pas du tout le cas avec les jeux sur PC, ce qui entraine les phénomènes visuels cités. Pour remédier à ce problème, Nvidia a mis au point le module G-Sync, ce dernier redirige la synchronisation de l'image au GPU plutôt qu'au moniteur. C'est donc le GPU qui impose à l'écran la fréquence dynamique de rafraichissement. Du coup ce module doit être intégré à l'écran, et c'est le rôle du partenariat signé avec Asus, BENQ, Philips et Viewsonic.

 

Pour en bénéficier, posséder un écran G-Sync ne suffira pas, il faudra un GPU Kepler au minimum, les pilotes étant prévus pour piloter le G-Sync intégré à l'écran, le branchement ne pourra être que Displayport. Le moniteur quant à lui devra avoir une plage de fréquences comprise entre 30 et 144Hz. nos confrères de HFR ont pu voir tourner deux démos de jeux 3D, et leur avis est que de 30 à 40 images par seconde, G-Sync n'apporte pas de plus-value particulière par rapport. Par contre dès 40 ips, les sensations sont très bonnes.

 

Nvidia a de plus le support de 3 développeurs connus et reconnus dans le milieu, ce sont Tim Sweeney d'Epic et son Unreal Engine, John Carmack d'IDSoftware et son IDTech et Johan Andersson de Dice et son Frostbite. Ces derniers réunis ont fait évangile de G-Sync, puisqu'elle leur facilitera la programmation sans les astreindre au "calcul" des latences d'affichage dans la mise au point du code du moteur, ce taff-là sera dévolu au GPU et à l'écran G-Sync.

 

Comme toute nouveauté technologique, elle est propriétaire, et c'est le caméléon qui l'a dégainée le premier, la chaine devra être Nvidia friendly pour fonctionner, nul doute que cette idée ne plaira pas à tout le monde, à commencer par les gamers à qui sont destinées ces avancées et qui aiment bien renouveller le matériel au gré des envies du moment.

 

nvidia_gsync.jpg  

Un poil avant ?

Bon plan: disque dur Toshiba DT 3To 5940tpm à 90,14€ livré en Relais

Un peu plus tard ...

Bon plan: quelques jeux dématérialisés à moins de 5€ pièce

Les 54 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Xorg, le Dimanche 20 Octobre 2013 à 09h37  
Sur le papier, ça a l'air intéressant, mais c'est peut-être un peu trop propriétaire. Ça sent déjà l'argument commercial pour attirer les gamers :
"Écran Full HD @144Hz, avec support de la 3D propriétaire de nVidia, ainsi que la technologie G-Sync propriétaire de nVidia."
Mais certes, on ne peut pas leur en vouloir d'innover, c'est juste qu'en général, ça devient beaucoup plus cher. Acheter toutes la panoplie compatible avec les technologies nVidia, ça doit coûter un bras.
par Dark Bidule, le Dimanche 20 Octobre 2013 à 07h29  
Un peu comme le SLI et le crossfire supporté par une même carte mère.
par neelrocker, le Dimanche 20 Octobre 2013 à 05h51  
Mantle et g-sync sont complémentaires. L'objectif à terme pour nous c'est que les 2 se généralisent Si l'apport de g-sync est si évident croyez bien que les fabricants d'écrans vont pousser pour avoir une norme unique car en avoir 2 proprio serait un problème pour eux. Dans le pire des cas, s'il y avait 2 normes (amd/nvidia) on aurait des écrans compatibles avec les deux (mais plus chers).
par Dark Bidule, le Samedi 19 Octobre 2013 à 19h17  
Ben je crois que pas grand monde n'a encore Gsync vu que ce n'est pas sorti. Par contre si tu viens comme moi d'investir dans un écran, c'est ballot.
En même temps, en attendant toujours pour avoir le meilleur (si c'est le cas pour cette techno)on n'achète plus rien.
par Québécois de Quebec, le Samedi 19 Octobre 2013 à 19h11  
?!?!?

J'ai dû remplacer ma radeon 7970 par une geforce gtx 780 pour résoudre le problème de tearing avec 2 écrans en mode clone... Et jai pas de g-sync dans mes écrans, naturellement...
par Dark Bidule, le Samedi 19 Octobre 2013 à 19h05  
par Un ragoteur inspiré du Nord-Pas-de-Calais, le Samedi 19 Octobre 2013 à 12h50
Truc qui serre a rien

par Un ragoteur foufou embusqué, le Samedi 19 Octobre 2013 à 19h04  
Entre un mantle gratuit qui ne sera que du bénef qui englobe aussi les cartes antérieures et ce truc à peine utile pour 5% des gens et qui va couter encore du pognon.... si je devais choisir lequel des deux aide le plus le jeu sur pc mon choix est vite fait.
Reste plus qu'à voir les perfs de mantle pour crier à l'arnaque ou pas, si c'est 10% à peine c'est clair que c'est un peu nul, mais chez amd au moins c'est gratuit, pas besoin d'acheter un écran à 400e.
par Un ragoteur qui revient embusqué, le Samedi 19 Octobre 2013 à 18h42  
par PoRRas, le Samedi 19 Octobre 2013 à 18h31
Johan Andersson il est pas coincé chez AMD? Mantle, tout ça...
J'aime bien ceux qui disent que c'est du BS alors que les grands de l'industrie se penchent dessus. Toujours en train de parler avant de voir.
A ton avis, pourquoi se penchent ils donc dessus...? $_$
Pas d'idée...? $_$
par PoRRas, le Samedi 19 Octobre 2013 à 18h31  
Johan Andersson il est pas coincé chez AMD? Mantle, tout ça...

J'aime bien ceux qui disent que c'est du BS alors que les grands de l'industrie se penchent dessus. Toujours en train de parler avant de voir.
par Jaymz29, le Samedi 19 Octobre 2013 à 15h04  
par sandypoutrepasmal, le Samedi 19 Octobre 2013 à 13h15
Tu as été déverser ton fiel sur le facebook de Nvidia au sujet d'une technologie nouvelle, sans t'être renseigné préalablement un minimum et apparemment tu en es fier au point de l'écrire et t'en vanter ?
Je n'ai pas de mots pour décrire ce comportement, à part dire que la connerie est sans limite, et humaine.
Si justement je m'étais renseigné (il y avait un lien vers le site de nvidia sur la page bobook), mais l'article de hardware.fr confirme ce que j'en pense. Chacun son avis.
Je ne suis pas anti au pro quoique ce soit; mon fixe est équipé Nvidia et mon portable AMD. J'active la V-synch la plupart du temps et j'ai rarement rencontré ce type de problème (suttering et autres ...) lorsque le jeu devient moins fluide je baisse un peu les options graphiques et puis c'est tout.
par Un ragoteur inspiré du Centre, le Samedi 19 Octobre 2013 à 14h42  
par sandypoutrepasmal, le Samedi 19 Octobre 2013 à 13h15
Tu as été déverser ton fiel sur le facebook de Nvidia au sujet d'une technologie nouvelle, sans t'être renseigné préalablement un minimum et apparemment tu en es fier au point de l'écrire et t'en vanter ?
Je n'ai pas de mots pour décrire ce comportement, à part dire que la connerie est sans limite, et humaine.
Tout à fait d'accord.

Dommage qu'il fasse forcément un Kepler et un branchement en display port pour profiter de cette technilogie, mais sinon c'est très intéressant si cela évite d'avoir du slutterieng

(c'est quand même chiant de constater cela avec un 4570k et 2x GTX660 en SLI sur arma 3)
par Un rat goteur embusqué, le Samedi 19 Octobre 2013 à 14h39  
par Jaymz29, le Samedi 19 Octobre 2013 à 12h54
J'ai bullshité hier sur le bobook des verts, là je viens de lire l'article sur hardware.fr et je continue de penser à du gros bullshit ... Manque plus que les logos "military class" et "ready for windows 8" et c'est bon, les noobs pourront se ruer dessus!!
xd t tro epic mec gg DDD u mad nvidia ? *trolface*

Ce qui est dommage ici c'est la restriction a une marque. Ce qui donnera un écran réservé a Nvidia, et donc plus cher, et on l'as dans le c*l si on veut passer chez AMD. Le mieux aurait été d'en faire une techno universelle, comme la 3D , qui s'installe petit a petit chez tous les écrans... Malheureusement l'objectif est de remplir le porte feuille, pas de faire plaisir aux clients