COMPTOIR
  
register

Adaptive-Sync : VESA standardise le FreeSync d'AMD face au G-Sync de NVIDIA

Au début du mois d'avril, on apprenait par des canaux informels que le VESA avait accepté la proposition d'AMD d'intégrer sa technologie FreeSync au sein du DisplayPort 1.2a. Le groupement de constructeurs en charge des standards vient d'officialiser cette technologie qui portera le nom d'Adaptive-Sync et qui viendra placer des batons dans les roues du G-Sync de NVIDIA.

 

Pour rappel, l'Adaptive-Sync et le G-Sync reposent sur le même principe : adapter en temps réel la fréquence de rafraichissement du moniteur au débit d'images de la carte graphique. Ce qui empêche l'apparition de tearing et de stuttering dans les jeux et qui évite donc de nécessiter une carte graphique ultra puissante pour faire tourner un jeu gourmand dans de bonnes conditions de fluidité. Un autre avantage est de pouvoir lire les films à 24, 25 ou 30 Hz. Il semblerait que l'Adaptive-Sync puisse descendre jusqu'à 10 Hz pour un écran statique. L'intérêt de la technologie officialisée aujourd'hui par le VESA a le mérite de ne pas nécessiter un coûteux module à rajouter à l'écran, contrairement au G-Sync.

 

a-sync.jpg  

 

Les premiers écrans compatibles avec l'Adaptive-Sync arriveraient d'ici 6 mois à un an. AMD précise que le FreeSync est son intégration de l'Adaptive-Sync dans ses pilotes et ses cartes graphiques. Si un pilote spécial devrait être disponible à la sortie des premiers moniteurs Adaptive-Sync, il faudra en revanche posséder une carte graphique compatible. Le père des Radeons précise que pour le moment, seules les R9 290X, R9 290, R7 260X et R7 260 sont capables de bien s'entendre avec ces futurs écrans, tout comme les APU Kabini, Temash, Beema et Mullins.

 

Il faut noter que la technique de l'Adaptive-Sync est présente depuis 2009 dans certains ordinateurs portables équipés d'une interface eDP (embeded DisplayPort) , ce qui qui devrait faciliter son intégration dans l'univers desktop. Il reste toutefois quelques inconnues. En effet, on peut se demander ce que va faire NVIDIA du G-Sync qui devrait être une solution plus coûteuse face au FreeSync. D'autant plus qu'aucun écran G-Sync n'est actuellement disponible, sauf l'Asus VG248QE "moddé" G-Sync. Est-ce que certains écrans déjà commercialisés pourront être mis à jour pour supporter l'Adaptive-Sync ? Qu'en est-il des GPU Radeon pré GCN 1.1 ? Tant de questions qui resteront sans réponses encore un certain temps ... (Source : HFR)

Un poil avant ?

Deux nouvelles gammes de moulins chez Noctua

Un peu plus tard ...

Les PC-B16 et A61 de Lian Li arrivent sur le marché

Les 40 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Vincent S., le Mercredi 14 Mai 2014 à 13h49  
par Un ragoteur de Lorraine, le Mercredi 14 Mai 2014 à 11h58
Etant donné que ça existe depuis un moment dans certains portables, je dois bien avouer que la fameuse "carte G-Sync" en elle-même était un beau foutage de gueule, puisqu'il suffisait d'utiliser le contrôleur présent dans un de ces portables, si il est pas déjà utilisé dans certains moniteurs.

Pas étonnant qu'on en parle plus trop de G-Sync hein... au mieux ils ont essayé de réinventer quelque chose d'existant alors qu'ils en avaient forcément connaissance.
La carte G-Sync coûte la peau des fesses notamment parce qu'elle intègre un coûteux ASIC. L'avantage de l'Adaptive-Sync (et du eDP des portables) c'est que la puce ne coûte plus grand chose car les scalers sont tous les mêmes et les constructeurs réalisent des économies d'échelle. Mais le surcoût peut aussi être du à une politique commerciale
par Un ragoteur de Lorraine, le Mercredi 14 Mai 2014 à 11h58  
par lulu-nico, le Mercredi 14 Mai 2014 à 08h24
Dans g-sync oui d'ou le surcout.
La non donc pas de surcout.
Dans les 2 cas il y en a une.

La différence, c'est que G-Sync et FreeSync Adaptive-Sync ajoutent un fonctionnement basé non pas sur une fréquence mais sur une durée minimale pour chaque image, que cette puce doit prendre en charge.

Etant donné que ça existe depuis un moment dans certains portables, je dois bien avouer que la fameuse "carte G-Sync" en elle-même était un beau foutage de gueule, puisqu'il suffisait d'utiliser le contrôleur présent dans un de ces portables, si il est pas déjà utilisé dans certains moniteurs.

Pas étonnant qu'on en parle plus trop de G-Sync hein... au mieux ils ont essayé de réinventer quelque chose d'existant alors qu'ils en avaient forcément connaissance.
par Un ragoteur qui déraille d'Ile-de-France, le Mercredi 14 Mai 2014 à 11h32  
Pour simplifier, dans les 2 cas, il faut un écran indépendant d'une fréquence de rafraichissement.
Coté G-Sync, un buffer stock une image reçus par la carte GFX, un controleur vérifie si elle est différente de celle actuellement affiché et rafraichie l'image en conséquence. Avantage : ça fonctionne dans tous les cas (malheureusement, c'est artificiellement bridé par nVidia). Inconveniant : nécessite de l'électronique supplémentaire pour controler le rafraichissement.
Coté A-Sync, la carte GFX demande le rafraichissement dés qu'une nouvelle image est disponible. Avantage : meilleur contrôle du rafraichissement de l'écran. Inconvéniant : nécessite d'avoir un écran et une carte GFX qui se comprennent (vu que c'est la carte GFX qui prend en charge le controle du rafraichissement).

lulu-nico>Ca ne rend pas les jeux plus fluide, ça permet simplement de supprimer le tearing. Le stuttering est engendré par la V-Sync (qui permet lui-aussi de supprimer le tearing).
par lulu-nico, le Mercredi 14 Mai 2014 à 08h56  
par ArghOops, le Mercredi 14 Mai 2014 à 08h49
C'est bien ça.
Après il faut voir la qualité graphique, mais j'aimerai bien tester ça, ça prolongerai la vie de nos GPU que l'on change quand les jeux rament.
La qualité graphique dépendra toujours de la puissance de ton gpu.
Mais au lieu d'essayer d'avoir 60 fps en ultra tu essayera s'avoir 40 fps en ultra.
par ArghOops, le Mercredi 14 Mai 2014 à 08h49  
par lulu-nico, le Mercredi 14 Mai 2014 à 08h42
D'après cette article des 40 fps on a l'impression des jeux 100 % fluide.
Pour certain jeux une carte moyenne gamme suffit pour du 40 fps pour d'autre jeux il faut un gpu plus haut de gamme.
Mais atteindre 40 fps demande un gpu moins puissant que pour avoir 60 fps.
C'est bien ça.
Après il faut voir la qualité graphique, mais j'aimerai bien tester ça, ça prolongerai la vie de nos GPU que l'on change quand les jeux rament.
par lulu-nico, le Mercredi 14 Mai 2014 à 08h42  
par ArghOops, le Mercredi 14 Mai 2014 à 08h35
JE suis en trian de lire l'article de HFR qui n'est pas mal détaillé, je comprends en fait que c'est l'écran qui se cale sur les images envoyées par le GPU, d'où cette absence de latence et d'où le fait que l'on pourra utiliser un GPU bas de gamme sans avoir forcément de latence, mais au détriment de la qualité d'image j'imagine.
D'après cette article des 40 fps on a l'impression des jeux 100 % fluide.
Pour certain jeux une carte moyenne gamme suffit pour du 40 fps pour d'autre jeux il faut un gpu plus haut de gamme.
Mais atteindre 40 fps demande un gpu moins puissant que pour avoir 60 fps.
par ArghOops, le Mercredi 14 Mai 2014 à 08h35  
par lulu-nico, le Mercredi 14 Mai 2014 à 08h24
Dans g-sync oui d'ou le surcout.
La non donc pas de surcout.
Je suis en train de lire l'article de HFR qui n'est pas mal détaillé, je comprends en fait que c'est l'écran qui se cale sur les images envoyées par le GPU, d'où cette absence de latence et d'où le fait que l'on pourra utiliser un GPU bas de gamme sans avoir forcément de latence, mais au détriment de la qualité d'image j'imagine.
par lulu-nico, le Mercredi 14 Mai 2014 à 08h24  
par ArghOops, le Mercredi 14 Mai 2014 à 08h08
Oui mais il y a une puce dans le moniteur non?
Dans g-sync oui d'ou le surcout.
La non donc pas de surcout.
par ArghOops, le Mercredi 14 Mai 2014 à 08h08  
Oui mais il y a une puce dans le moniteur non?
par Un ragoteur lambda embusqué, le Mercredi 14 Mai 2014 à 07h50  
Il n'y a pas de puce, c'est juste le moniteur qui obéit à la fréquence de sortie de la carte graphique si j'ai bien compris.
par ArghOops, le Mercredi 14 Mai 2014 à 07h36  
Je n'ai toujours pas bien compris comment la puce va faire pour compenser une "petite" CG pour éviter le sluttering...
Quelqu'un pourrait avoir une explication simple svp?
par Un ragoteur foufou d'Ile-de-France, le Mercredi 14 Mai 2014 à 07h22  
C'est la première fois qu'une tentative de sodomisation du gamer devient bénéfique.