COMPTOIR
register

Les premiers écrans FreeSync d'AMD pour le mois de novembre ?

Aux dernières nouvelles, les constructeurs partenaires d'AMD sur le FreeSync prévoyaient de livrer des écrans compatibles entre le 4ème trimestre 2014 et le 1er trimestre 2015. On avait donc conclu sur une arrivée des écrans FreeSync pour le début de l'année prochaine. Mais si l'on en croit les sources du site Fudzilla, les premiers moniteurs compatibles avec la technologie des rouges pour réduire le stuttering et le tearing arriveraient d'ici un mois.

 

La rumeur est évidemment à prendre avec des bonnes vieilles pincettes (pas trop rouillées quand même) mais elle pourrait être véridique pour plusieurs raisons. Pour rappel, le FreeSync fonctionne de la même manière que le G-Sync de Nvidia (en faisant varier la fréquence de rafraichissement de l'écran selon le nombre de FPS en sortie de GPU) sauf que la technologie d'AMD se base sur le standard Adaptive-Sync du VESA. Les constructeurs commencent de plus en plus à sortir des écrans G-Sync et il est donc temps pour AMD de proposer sa réponse.


De plus, le FreeSync serait un argument de poids de la part d'AMD puisque la technologie permettrait de jouer sur un écran UHD / 4K compatible sans forcément passer par un CrossFire. En revanche, on ne sait rien du premier écran qui arrivera sur le marché. Il y a quelque temps, on parlait d'un écran produit à quelques exemplaires et uniquement disponible pour la presse. Les plus candides pourraient même imaginer un écran déjà existant, spécialement sélectionné par AMD pour recevoir une mise à jour de son contrôleur afin de le rendre compatible FreeSync. Mais là, on a troqué les moufles pour la boule de cristal.

amd_logo_horiz.png

Un poil avant ?

Infinity, un clavier mécanique sur mesure à monter de A à Z

Un peu plus tard ...

La GTX Titan Z pourrait voir son prix baisser

Les 30 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui déraille embusqué, le Jeudi 23 Octobre 2014 à 10h03  
par Un ragoteur sans nom de Picardie le Mardi 21 Octobre 2014 à 17h38
En même temps le 4K en 3D nécessite une puissance tellement importante qu'aucun GPU ne le permet sans sacrifier les options graphique.
C'est pas une question technique, c'est une question marketing. La seule rationalité dans ce domaine, c'est de proposer plus que le concurrent. Hors là, AMD peut proposer de la 3D en 4K synchro. nVidia peut pas.

 
En même temps le 4K en 3D nécessite une puissance tellement importante qu'aucun GPU ne le permet sans sacrifier les options graphique.

Et le DP 1.2 permet de faire transiter un flux 3d en 1080p et en 1440p, ce qui est déjà limite pour nos GPU sur les jeux récents.

Le rêve a ses raisons que la technique ignore

 
En 3D on ressent beaucoup plus facilement les saccades qu'en 2D (on a moins de motion blur à cause de la techno des lunettes active ), il faut donc du 60ips constant sans stuttering. Ce qui nous laisse le choix entre du 720p ou du 1080p si l'on ne veut pas baisser les graphisme ou dépenser des fortunes dans un SLI.

Ça tombe bien, G-Sync/A-Sync ne créé pas de stuttering, plus besoin d'avoir des fps constant
par Un ragoteur sans nom de Picardie, le Mardi 21 Octobre 2014 à 17h38  
par Un ragoteur qui déraille embusqué le Mardi 21 Octobre 2014 à 13h02
Oui, 4K@60Hz seulement. Donc tu crois vraiment que nVidia va se vanter longtemps de supporter des écrans G-Sync 4K@60Hz (en faisant une croix sur 3D Vision au passage) là où AMD va supporter des écrans FreeSync 4K@120Hz 3D ?
En même temps le 4K en 3D nécessite une puissance tellement importante qu'aucun GPU ne le permet sans sacrifier les options graphique.

Et le DP 1.2 permet de faire transiter un flux 3d en 1080p et en 1440p, ce qui est déjà limite pour nos GPU sur les jeux récents.
En 3D on ressent beaucoup plus facilement les saccades qu'en 2D (on a moins de motion blur à cause de la techno des lunettes active ), il faut donc du 60ips constant sans stuttering. Ce qui nous laisse le choix entre du 720p ou du 1080p si l'on ne veut pas baisser les graphisme ou dépenser des fortunes dans un SLI.
par Un ragoteur qui déraille embusqué, le Mardi 21 Octobre 2014 à 13h02  
par Un ragoteur foufou de Picardie le Lundi 20 Octobre 2014 à 14h16
Le DP 1.2 supporte très bien le 4K.

Par exemple le Dell UP2414Q utilise un connecteur display port 1.2a pour afficher de l'UHD à 60Hz.
Oui, 4K@60Hz seulement. Donc tu crois vraiment que nVidia va se vanter longtemps de supporter des écrans G-Sync 4K@60Hz (en faisant une croix sur 3D Vision au passage) là où AMD va supporter des écrans FreeSync 4K@120Hz 3D ?
Déjà que G-Sync semble partir avec un handicape sur la gamme de fréquence de rafraichissement (ne descend pas en-dessous 30Hz là où Adaptive-Sync descend jusqu'à 9Hz pour fréquence max de 60Hz ou 17Hz pour une fréquence max de 120Hz)...
par Un ragoteur lambda embusqué le Lundi 20 Octobre 2014 à 13h33
Sauf que c'est justement pour compenser un défaut des écrans CRT (qui au contraire des GPU, se contentaient pour l'instant d'un nombre d'images fixe par seconde)
par Un ragoteur "ArthaX" du Centre, le Lundi 20 Octobre 2014 à 21h40  
FreeSync ou Adaptive-Sync sont supportés par AMD et Intel, donc 75% des GPU. Reste à voir combien G-Sync va prendre place dans les moniteurs de moins de 150$ et surtout dans les portables.
Je ne change mon moniteur que dans 4 à 5 ans, donc ça sera surement du Adaptive-Sync car sous les 100€. Du 1080p G-Sync sous les 100€ m'étonnerait beaucoup.
@++
par Armand Raynal, le Lundi 20 Octobre 2014 à 14h59  
opinaiseopinaiseopinaiseopinaiseopinaiseopinaiseopinaiseopinaiseopinaiseopinaiseopinaiseopinaise

C'est quand déjà la grosse baisse de prix sur les 4K ? Vous savez celle organisée par je sais plus quel fabriquant qui veut faire des all in one 4k en masse ?
par k'stor, le Lundi 20 Octobre 2014 à 14h51  
par Un ragoteur qui draille embusqué le Lundi 20 Octobre 2014 à 10h18
Acheter un écran dont la principale fonctionnalité nécessite un gpu amd, avec l'incertitude qui pèse sur l'avenir d'amd, c'est pas vraiment l'idée du siècle.
Pff, ce qu'il faut pas entendre...
C'est vrai que le gars qui a une Radeon ferait mieux de prendre un Gsync, c'est une solution plus pérenne.
AMD est loin d'être mort. En tout cas pas d'ici plusieurs années. Si AMD meurt, il y a de grandes chances que les GPU soient repris.
Freesync est libre et risque d'intéresser d'autres personnes (consoles/lecteurs...) et même Nvidia.
La fonction primaire d'un écran est d'afficher des choses, pas la sync.
Il faut voir le surcout par rapport à un écran normal.
par Un ragoteur foufou de Picardie, le Lundi 20 Octobre 2014 à 14h16  
par Un ragoteur qui déraille embusqué le Lundi 20 Octobre 2014 à 12h50
Si nVidia veut afficher un support du 4K, ils sont obligés de prendre en charge DP1.3 (DP1.2 ne supporte pas la 4K).
Le DP 1.2 supporte très bien le 4K.

Par exemple le Dell UP2414Q utilise un connecteur display port 1.2a pour afficher de l'UHD à 60Hz.
par Un ragoteur lambda embusqué, le Lundi 20 Octobre 2014 à 13h33  
par Un ragoteur sans nom embusqué le Lundi 20 Octobre 2014 à 09h26
Dommage de passer par là pour réduire les défauts des GPU...
Sauf que c'est justement pour compenser un défaut des écrans (qui au contraire des GPU, se contentaient pour l'instant d'un nombre d'images fixe par seconde)
par Un ragoteur sans nom embusqué le Lundi 20 Octobre 2014 à 10h02
Les gpu ont deja un débit de frames variable contrairement aux écrans qui sont bloqué le plus souvent à 60 ou 120 frames par secondes. Et la solution à ce problème existe, elle est appelée la synchronisation verticale, ce qu'on voit ici n'est ni plus ni moins qu'une évolution de ce standard.
Le V-sync "réglait" le problème dans l'autre sens, forçant le GPU à fournir le nombre d'images attendu par l'écran, quitte à fournir la même deux fois de suite -> on y gagne des images complètes à chaque affichage (pas de tearing), mais il en découle des saccades.

Le G-Sync permet à l'écran d'accepter lui aussi des débits variables. C'est quelque chose qui existait déjà sur les portables pour des raisons d'économie d'énergie. NVidia a eu l'idée de le vendre aux joueurs (G-Sync), et AMD a oeuvré pour que cette fonctionnalité devienne un standard du Display Port (Adaptive-Sync). Sans manquer, bien sûr, de l'estampiller FreeSync dans le cadre de ses GPU/pilotes, en réponse à son concurrent.
par Mendoza, le Lundi 20 Octobre 2014 à 13h03  
par Un ragoteur qui déraille embusqué le Lundi 20 Octobre 2014 à 12h50
Si nVidia veut afficher un support du 4K, ils sont obligés de prendre en charge DP1.3 (DP1.2 ne supporte pas la 4K). Et s'il veulent supporter DP1.3, ils sont obligé de supporter Adaptive-Sync, la norme derrière FreeSync (Adaptive-Sync n'est pas optionnel pour afficher une prise en charge de DP1.3).
Merci pour cette information.
par Un ragoteur qui déraille embusqué, le Lundi 20 Octobre 2014 à 12h50  
par Mendoza le Lundi 20 Octobre 2014 à 10h12
FreeSync sera compatible avec les cartes Nvidia ?
Si nVidia veut afficher un support du 4K, ils sont obligés de prendre en charge DP1.3 (DP1.2 ne supporte pas la 4K). Et s'il veulent supporter DP1.3, ils sont obligé de supporter Adaptive-Sync, la norme derrière FreeSync (Adaptive-Sync n'est pas optionnel pour afficher une prise en charge de DP1.3).
par Un ragoteur sans nom embusqué, le Lundi 20 Octobre 2014 à 11h40  
par Vincent S. le Lundi 20 Octobre 2014 à 11h21
Et pour clarifier, FreeSync est l'écosystème (scaler, GPU et pilotes) basé sur l'Adaptive-Sync de la norme DisplayPort qui ne concerne que le scaler et le protocole.
Joliment bien résumé
par N² embusqué, le Lundi 20 Octobre 2014 à 11h32  
par Un ragoteur qui draille embusqué le Lundi 20 Octobre 2014 à 10h18
Acheter un écran dont la principale fonctionnalité nécessite un gpu amd, avec l'incertitude qui pèse sur l'avenir d'amd, c'est pas vraiment l'idée du siècle.
Ben ouai t'as raison, vu que j'ai des R9, autant prendre un G-sync...