COMPTOIR
  
register

Freesync et G-Sync : où est-ce qu’on en est ?

Ça fait maintenant plusieurs années que Freesync et G-Sync se battent pour nous offrir une meilleure expérience visuelle sur nos p’tits écrans. Alors que la relève pointe le bout de son nez, Techspot en a profité pour faire un état des lieux de la Guerre des Syncs et de son futur. En gros, ces technologies existent pour intervenir là où la synchronisation verticale ne suffit pas ; c’est-à-dire proposer une expérience fluide, sans tearing, quand le nombre d’images par seconde est sous le seuil de la fréquence maximale supportée par l’écran. C’est dans ce contexte que les Syncs entrent en action, ajustent automatiquement et de façon dynamique la fréquence de rafraichissement au nombre d’images que le GPU arrive à produire. Youhou nos yeux sont saufs !

 

amd vs nvidia sw

 

Évidemment les deux solutions ont leurs avantages et inconvénients, outre la limitation Freesync/GPU AMD et G-Sync/GPU Nvidia. Du côté vert par exemple c’est souvent plus cher, nécessitant obligatoirement un module propriétaire pour l’écran. Par contre l’avantage c’est que la qualité et l’expérience G-Sync sera constante, quelle que soit la marque.

 

C’est un peu le contraire du Freesync, certes moins cher, mais dont l’implémentation laisse parfois à désirer, puisque chaque constructeur fait un peu comme il veut. AMD l'a bien compris et profitera de l’avènement du HDR pour introduire Freesync 2. Cette évolution, en plus de supporter le HDR et démocratiser le LFC (Low-Framerate-Compensation) introduira un programme de validation pour s’assurer que seuls les meilleurs écrans soient certifiés Freesync 2, et éviter ainsi de reproduire le bordel qu’on a en ce moment. Nvidia n’est pas en reste, le G-Sync HDR sera lui aussi de la bataille. Seulement cette fois-ci on devrait se retrouver avec deux compétiteurs au même niveau, de qualités et performances similaires pour nous en mettre plein les mirettes, et ce, quel que soit le côté de la Force que vous choisirez !

 

Un poil avant ?

Un nouveau DLC pour Grim Dawn

Un peu plus tard ...

Votre projecteur de poche fait maison !

Les 45 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Shadow, le Vendredi 25 Août 2017 à 16h58  
+1 ... le motion blur je trouve ça dégueulasse, c'est qu'n effet mais ça me file la gerbe et me donne l'impression d'avoir du ghosting ...
par Stormyme, le Vendredi 11 Août 2017 à 10h06  
Excellent , je savais pas que sur mon moniteur on pouvait combiner g-sync + ULMB.
Meme si c'est un bug exploité ça vaut le coup .

Vais tester ça .
Sinon je suis d'accord avec toi , peu de gens sont au courant de ça et pourtant la reduction du flou (motion blur) me semble etre ce qui rapproche le plus de ces bons vieux CRT en terme de fluidité et netteté .
par Un Jean tit embusqué, le Jeudi 10 Août 2017 à 19h00
Clairement on est pas sorti du sable selon moi....

Un ecran ideal pour le gaming devrait.... etre compatible ULMB/Lighboost hack (ou techno reduction blur chez BenQ, samsung sur de rares modeles) , avec FRV , freesync LFC ou Gsync , ET CE , que ce soit utilisable en meme temps, a savoir FRV + ULMB , hors, ca releve plus du bug en pratique pour etre utilisable qu'autre chose...pour info ici ya une liste des ecrans qui possedent cette techno AVEC freesync/gsync/sans liste non exhaustive

Apres , meme si cest pas tres logique , faut vraiement se renseigner sur "comment et ce qu'apporte la FRV " (freq refresh variable); avant de la comparer avec la vsync , qui generalement plombe les perfs, et ajoute pas mal d'input lag (surtout sur les fps/souris)
par Un ragoteur qui draille embusqué, le Vendredi 11 Août 2017 à 04h28  
par Un champion du monde embusqué, le Jeudi 10 Août 2017 à 23h19
Bon si tu veux savoir vraiment comment ça marche vas lire ça :

http://www.hardware.fr/articles/914-3/rappel-v-sync-on-off-triple-buffering.html

ca ira surement mieux ensuite.
Tête à claques va
par Un champion du monde embusqué, le Jeudi 10 Août 2017 à 23h19  
par Un ragoteur de transit embusqué, le Jeudi 10 Août 2017 à 20h30
N'importe quoi... Et par quel miracle se ferait la soit disant "synchro" sans synchro...

Il faut arrêter d'inventer ou d'imaginer des choses pour un truc qui est très simple et très basique: vsync on, le gpu est synchronisé sur l'écran, vsync off, il n'y a pas de synchro donc oui évidemment tu pourras avoir du tearing avec un écran 60hz et 60 fps. Le tearing = synchro off. Rien d'autre.

Si tu fais "tam" toutes les secondes et que je fais "tam" toutes les secondes, si on est pas synchronisé on entendra "tam tam". C'est tout.
Bon si tu veux savoir vraiment comment ça marche vas lire ça :

http://www.hardware.fr/articles/914-3/rappel-v-sync-on-off-triple-buffering.html

ca ira surement mieux ensuite.
par Un ragoteur de transit embusqué, le Jeudi 10 Août 2017 à 20h30  
par Un ragoteur Gaulois embusqué, le Jeudi 10 Août 2017 à 16h12
Ca n'a rien à voir.

Le tearing apparaît si ta fréquence d'image > fréquence d'affichage.

Le fait de les voir n'a rien à voir avec le jeu auquel tu joues mais juste au fait de tomber à X fois plus que ta fréquence de rafraîchissement.

Si par exemple tu as un écran 60hz et que ton gpu sort du 120 fps tu ne verras pas de tearing car ton moniteur n'affichera qu'une frame sur deux mais bien synchro.

Si ta qté de fps est proche du double (ou du quadruple ...etc) tu ne vas pas percevoir le tearing car il sera très proche du haut ou du bas de l'écran.

N'importe quoi... Et par quel miracle se ferait la soit disant "synchro" sans synchro...

Il faut arrêter d'inventer ou d'imaginer des choses pour un truc qui est très simple et très basique: vsync on, le gpu est synchronisé sur l'écran, vsync off, il n'y a pas de synchro donc oui évidemment tu pourras avoir du tearing avec un écran 60hz et 60 fps. Le tearing = synchro off. Rien d'autre.

Si tu fais "tam" toutes les secondes et que je fais "tam" toutes les secondes, si on est pas synchronisé on entendra "tam tam". C'est tout.
par Un Jean tit embusqué, le Jeudi 10 Août 2017 à 19h09  
comme je sais que bcp n'iront pas chercher " , qq ptites videos pour montrer ce qu'apporte le ULMB
* sur un jeu lien
* sur de la 2D lien
*sur un test de ghosting lien
*et ce que ca donne associé a du G-SYNC lien

Par contre , vu que ca fonctionne avec une backlight d'ecran en mode stroboscopique, sous les 60fps ca peut donner l'impression que l'image clignote (logique car normalement pas assez dimages a afficher par rapport a 120Hz de refresh, ou alors je suis à l'ouest )
par Un Jean tit embusqué, le Jeudi 10 Août 2017 à 19h00  
Clairement on est pas sorti du sable selon moi....

Un ecran ideal pour le gaming devrait.... etre compatible ULMB/Lighboost hack (ou techno reduction blur chez BenQ, samsung sur de rares modeles) , avec FRV , freesync LFC ou Gsync , ET CE , que ce soit utilisable en meme temps, a savoir FRV + ULMB , hors, ca releve plus du bug en pratique pour etre utilisable qu'autre chose...pour info ici ya une liste des ecrans qui possedent cette techno AVEC freesync/gsync/sans liste non exhaustive

Apres , meme si cest pas tres logique , faut vraiement se renseigner sur "comment et ce qu'apporte la FRV " (freq refresh variable); avant de la comparer avec la vsync , qui generalement plombe les perfs, et ajoute pas mal d'input lag (surtout sur les fps/souris)
par Un Jean tit embusqué, le Jeudi 10 Août 2017 à 18h51  
Je plussoie, ayant un ecran 3D vision qui a cette feature sous "lightboost hack" via logiciel strobelight , on peut meme degoter des profils de couleurs adapté a ce mode (un peu plus terne) qui peuvent basculer automatiquement pour, quand on utilise ce mode (generalement la reso native en ULMB/lightboost est en 120Hz au lieu de 144), coulour_sustainer de petit nom (force/Applique des profils ICC en jeu automatiquement par rapport a la reso/refresh indiquée)
par Stormyme, le Jeudi 10 Août 2017 à 18h44
Perso j'ai 2 GTX Titans 1eres du nom + un PG279Q .

Techspot rappelle qu'il y a une feature de plus avec G-Sync , l'ULMB(Ultra Low Motion Blur)

En gros la luminosité de l'écran baisse mais tu as aucun ghosting + une fluidité et une netteté de l'image améliorée .

Une fois qu'on a testé avec un fps nerveux (CS-GO , Quake , etc...)impossible de revenir sur un autre écran .

Par contre ça suppose d'avoir un framerate stable et fixe .
par Stormyme, le Jeudi 10 Août 2017 à 18h44  
Perso j'ai 2 GTX Titans 1eres du nom + un PG279Q .

Techspot rappelle qu'il y a une feature de plus avec G-Sync , l'ULMB(Ultra Low Motion Blur)

En gros la luminosité de l'écran baisse mais tu as aucun ghosting + une fluidité et une netteté de l'image améliorée .

Une fois qu'on a testé avec un fps nerveux (CS-GO , Quake , etc...)impossible de revenir sur un autre écran .

Par contre ça suppose d'avoir un framerate stable et fixe .
par Un ragoteur Gaulois embusqué, le Jeudi 10 Août 2017 à 16h12  
par Un ragoteur de transit embusqué, le Jeudi 10 Août 2017 à 14h21
Tearing et vsync off ça veut dire la meme chose: tu desactives la vsync tu as du tearing. Après c'est plus ou moins visible selon les jeux auxquels tu joues, plus tu as de gros mouvements de caméra plus cela sera fortement visible. Si tu joues à LOL, tu peux ne pas t'en apercevoir et encore...
Ca n'a rien à voir.

Le tearing apparaît si ta fréquence d'image > fréquence d'affichage.

Le fait de les voir n'a rien à voir avec le jeu auquel tu joues mais juste au fait de tomber à X fois plus que ta fréquence de rafraîchissement.

Si par exemple tu as un écran 60hz et que ton gpu sort du 120 fps tu ne verras pas de tearing car ton moniteur n'affichera qu'une frame sur deux mais bien synchro.

Si ta qté de fps est proche du double (ou du quadruple ...etc) tu ne vas pas percevoir le tearing car il sera très proche du haut ou du bas de l'écran.

par plopingo, le Jeudi 10 Août 2017 à 15h21  
par Un ragoteur de transit embusqué, le Jeudi 10 Août 2017 à 14h21
Tearing et vsync off ça veut dire la meme chose: tu desactives la vsync tu as du tearing. Après c'est plus ou moins visible selon les jeux auxquels tu joues, plus tu as de gros mouvements de caméra plus cela sera fortement visible. Si tu joues à LOL, tu peux ne pas t'en apercevoir et encore...
ya l'histoire du framerate à prendre en compte aussi. vsynch off à ~60/70 fps sur playerunknown's battlegrounds sur mon 120 hz. j'ai beau faire de gros mouvement de camera dans le lobby justement pour faire apparaître le tearing/déchirement de l'image j'y arrive pas.
par Un rat goth à l'heure de Haute-Normandie, le Jeudi 10 Août 2017 à 15h05  
par PoRRas, le Jeudi 10 Août 2017 à 13h10
Ou alors tu laisses tomber, tu t'achètes un bon écran 144Hz normal et avec l'économie, tu t'équipe d'un bon GPU qui descendra pas en dessous de 100 fps (valeur arbitraire).
Franchement à 144Hz, je ne vois absolument pas de tearing, pourtant très prononcé sur certains moteurs lorsque j'étais à 60. Donc pas de vsync à activer du tout.
Freesync/Gsync ce n'est pas qu'une histoire de tearing & de vsync.
C'est également une amélioration de l'affichage.

Quand freesync n'est pas activé sur mon écran le ressent très rapidement en jouant.
Typiquement, je me suis encore fait avoir hier (lors du 1 démarrage après une MAJ windows, freesync n'est pas actif ). J'ai lancé Overwatch en oubliant ce détail. Dès les 1ere phases de jeu rapide, j'ai ressenti qu'il y avait un truc qui clochait alors que mon framerate oscille entre 110 et 140 fps. Cette sensation devient même désagréable. Au final, OSD de mon écran ma confirmé que j'étais en 144hz pur. Un rapide redémarrage du pc et le problème fut résolu.

Peut être que je suis devenu plus sensible que par le passé, après 2 ans d'utilisation de freesync. Mais je suis totalement d'accord avec les testeurs : après avoir gouté à freesync/gsync, c'est compliqué de revenir en arrière"