COMPTOIR
  
register

L'Asus ARES face à une menace venant de XFX

La HD 5970 va fêter ses un an de règne sans partage sur le monde de la 3D, et XFX s'en va donc concurrencer l'ARES d'Asus sur son propre terrain. Avant de passer à la description, un petit rappel s'impose. La HD 5970 est une carte hybride reprenant les caractéristiques techniques de la HD 5870, 2 x 1600 SP, mais utilise les fréquences de la HD 5850, à savoir 725/1000 MHz. C'est là que certains constructeurs ont sorti des HD 5970 qui n'en étaient pas vraiment d'un point de vue purement nomenclature, puisqu'elles passaient leurs fréquences à 850/1200 MHz, faisant de ces HD 5970 de vrais crossfire de HD 5870.

 

XFX donc à son tour va lancer une série limitée à 1000 exemplaires, nommée Secret Weapon. Derrière un ventirad modifié se cachent un bundle et un emballage originaux, puisque la carte est planquée dans un plastique en forme de mitraillette, lui même rangé dans une sacoche que l'on devine imposante. Elle est compatible Eyefinity 6, et épaulée par 4 Go de GDDR5, et coûte la bagatelle de 1200$ US, quand on vous disait que l'idée rappelait l'ARES ! Tout ça vous le savez depuis un mois si vous lisez nos colonnes, c'est donc au tour de Fudzilla d'avoir fait mumuse avec le pétard, vaut-elle son prix ?

 

xfx_hd5970_secret_weapon.jpg  

 

Lire l'article chez Fudzilla

Un poil avant ?

Une GTX 460 2Go pour le moins intriguante chez Galaxy

Un peu plus tard ...

Un p'tit jeu de camions de course, ça vous tente ?

Les 23 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par lepassant, le Mercredi 29 Septembre 2010 à 09h38  
par k'stor, le Mercredi 29 Septembre 2010 à 09h22
Oui enfin deux écrans pour un FPS c'est pas top. Je crois me souvenir que chez nvidia, il faut plusieurs cartes pour plus de deux écrans. J'avoue que si ATI avait la même force de marketing que NV, on aurait beaucoup plus d'écrans avec DP. Je rêve d'un NVATI qui aurait suffisamment de force pour aller au bout de ses idées et les imposer aux industriels (contrairement à AMD) tout en proposant un format ouvert (contrairement à Nvidia). Bref l'espoir fait vivre. En gros ça serait un peu la même chose que Google et Android.
Tu as de la suite dans les idées, k'stor
par k'stor, le Mercredi 29 Septembre 2010 à 09h22  
Oui enfin deux écrans pour un FPS c'est pas top. Je crois me souvenir que chez nvidia, il faut plusieurs cartes pour plus de deux écrans. J'avoue que si ATI avait la même force de marketing que NV, on aurait beaucoup plus d'écrans avec DP. Je rêve d'un NVATI qui aurait suffisamment de force pour aller au bout de ses idées et les imposer aux industriels (contrairement à AMD) tout en proposant un format ouvert (contrairement à Nvidia). Bref l'espoir fait vivre. En gros ça serait un peu la même chose que Google et Android.
par lepassant, le Mercredi 29 Septembre 2010 à 08h54  
Tout cela pour dire, en définitive, que ce n'est pas tout de proposer un packaging très élaboré, faisant penser à une édition collector "à tirage limité". Encore faut il, surtout lorsqu'il est question d'un haut de gamme, savoir répondre présent lors de batailles technologiques concurrencielles qui intéressent les joueurs. Le cas de 3D vision n'est qu'un exemple. Quant au multi écran, c'est en allant voir ce qui est proposé du coté du caméléon que l'on remarque que cela peut très bien fonctionner sans surcoût avec les connecteurs d'affichage standard.
par lepassant, le Mercredi 29 Septembre 2010 à 07h58  
par k'stor, le Mercredi 29 Septembre 2010 à 07h17
Il faut aussi un écran qui coute grosso modo deux fois plus cher, les lunettes qui vont bien... en gros on peut dire que les deux technos sont aussi chères, elles demandent autant de puissance supplémentaire, chez un il faut un adaptateur DP->hdmi chez l'autre c'est les lunettes, chez un il faut un écran deux (ou trois) fois plus cher, chez l'autre, il faut un écran supplémentaire. Chez un tu peux voir tes films et tes photos en 3D, chez l'autre, tu peux bosser agréablement sur trois écrans. Bref, ça se vaut.
Il est à noter que le camélon supporte bien également le multi écran en 2D, et pas seulement le "3D vision surround". Donc, nous ne sommes plus vraiment dans l'alternative 3D vision nvidia OU BIEN Eyefinity d'ATI. Ce qui, objectivement, donne un certain avantage au caméléon, c'est donc de pouvoir proposer deux technologies immersives, alors qu'ATI s'est arrêté en chemin, a proposé son eyefinity, s'est un moment intéressé à rendre ses catalyst compabibles avec le quad buffering requis pour la stéréoscopie 120hz, mais s'est arrêté en cours de route et n'a pas proposé de solution propriétaire concurrente du 3D vision.
par k'stor, le Mercredi 29 Septembre 2010 à 07h17  
par lepassant, le Mardi 28 Septembre 2010 à 13h14
Salut K'stor. Il est vrai que la stéréoscopie est une technologie récente, et que Nvidia a tenu à occuper ce terrain sans véritable concurrence. Pour l'heure, le seul véritable inconvénient lié à cette technologie est une certaine baisse de luminosité. Est ce que 3D vision est cher ? Cela dépend des usages. Pour voir des photos en 3D, et même des films, une carte de milieu de gamme suffira sans difficultés. Par contre, pour jouer, cela demandera plus de puissance, et c'est là qu'il faut songer éventuellement à investir. Quoi qu'il en soit, nvidia est seul sur ce terrain pour le moment.
Il faut aussi un écran qui coute grosso modo deux fois plus cher, les lunettes qui vont bien... en gros on peut dire que les deux technos sont aussi chères, elles demandent autant de puissance supplémentaire, chez un il faut un adaptateur DP->hdmi chez l'autre c'est les lunettes, chez un il faut un écran deux (ou trois) fois plus cher, chez l'autre, il faut un écran supplémentaire. Chez un tu peux voir tes films et tes photos en 3D, chez l'autre, tu peux bosser agréablement sur trois écrans. Bref, ça se vaut.
par lepassant, le Mardi 28 Septembre 2010 à 13h14  
par k'stor, le Mardi 28 Septembre 2010 à 12h53
Là on a un fanboy de chaque,
Nvidia la 3D c'est bien c'est cher et c'est pas trop au point,
AMD trois écrans et plus c'est bien, c'est cher et c''est pas trop au point (DP et drivers de jeux)
Bref chacun propose sa solution pour l'immersion et ceux qui ont des sous à balancer.

Je pense qu'AMD devrait proposer sa solution de lunettes pour lancer le marché de la 3D sur sa plateforme. Un peu comme google l'a fait avec Android. Après je m'en fous un peu, déjà, tant qu'ils proposent des trucs performants à moins de 200€ je suis client.
Salut K'stor. Il est vrai que la stéréoscopie est une technologie récente, et que Nvidia a tenu à occuper ce terrain sans véritable concurrence. Pour l'heure, le seul véritable inconvénient lié à cette technologie est une certaine baisse de luminosité. Est ce que 3D vision est cher ? Cela dépend des usages. Pour voir des photos en 3D, et même des films, une carte de milieu de gamme suffira sans difficultés. Par contre, pour jouer, cela demandera plus de puissance, et c'est là qu'il faut songer éventuellement à investir. Quoi qu'il en soit, nvidia est seul sur ce terrain pour le moment.
par k'stor, le Mardi 28 Septembre 2010 à 12h53  
Là on a un fanboy de chaque,
Nvidia la 3D c'est bien c'est cher et c'est pas trop au point,
AMD trois écrans et plus c'est bien, c'est cher et c''est pas trop au point (DP et drivers de jeux)
Bref chacun propose sa solution pour l'immersion et ceux qui ont des sous à balancer.

Je pense qu'AMD devrait proposer sa solution de lunettes pour lancer le marché de la 3D sur sa plateforme. Un peu comme google l'a fait avec Android. Après je m'en fous un peu, déjà, tant qu'ils proposent des trucs performants à moins de 200€ je suis client.
par lepassant, le Mardi 28 Septembre 2010 à 11h32  
par lerevolteur83, le Mardi 28 Septembre 2010 à 11h10
Et bah si c'est pas du fanboy nvidia ce pâté-là

Si AMD ne développe pas de solutions propriétaire c'est qu'ils ont clairement vu la limite d'un tel choix chez nvidia...Physx se fait rattraper, la 3D est trop onéreuse et s'adresse à un public restreint et ah c'est sur AMD n'arrondit pas ses fins de mois en vidant le compte en banque des utilisateurs mais respecte encore ses clients en leur proposant des cartes au tarif abordable...Si pas de 3D c'est qu'AMD a d'autre chats à fouetter, je rappelle au passage que la gestion de plus de 2 écrans chez nvidia on en a pas encore vu la couleur donc on peut très bien là jouer dans ce sens...

De toute façon on pourrait très bien débattre de ça toute la journée sans avancer d'un seul pas...
Non mais sans blague, le Revolteur. Contre quoi te revoltes tu exactement ? Dans ce fil de discussion, nous parlons des solutions haut de gamme pour joueurs. Est ce que l'on est fanboy nvidia si l'on remarque simplement qu'ATI ne propose aucune solution concurrente vis à vis de la stéréoscopie 3D vision ? Ce qu'un joueur recherche, quitte à investir, c'est une expérience immersive.
par lerevolteur83, le Mardi 28 Septembre 2010 à 11h10  
Et bah si c'est pas du fanboy nvidia ce pâté-là

Si AMD ne développe pas de solutions propriétaire c'est qu'ils ont clairement vu la limite d'un tel choix chez nvidia...Physx se fait rattraper, la 3D est trop onéreuse et s'adresse à un public restreint et ah c'est sur AMD n'arrondit pas ses fins de mois en vidant le compte en banque des utilisateurs mais respecte encore ses clients en leur proposant des cartes au tarif abordable...Si pas de 3D c'est qu'AMD a d'autre chats à fouetter, je rappelle au passage que la gestion de plus de 2 écrans chez nvidia on en a pas encore vu la couleur donc on peut très bien là jouer dans ce sens...

De toute façon on pourrait très bien débattre de ça toute la journée sans avancer d'un seul pas...
par lepassant, le Mardi 28 Septembre 2010 à 07h36  
Il me semble que l'on pourra (ou pas) apprécier le packaging dans lequel cette carte est proposée, et qui souligne que l'on a à faire avec une version "collector", quoique l'emballage façon "fusil mitrailleur en plastique" ne soit pas nécessairement au goût de tout le monde. Ceci dit, le problème n'est peut être pas là. Je trouve que le haut de gamme pour joueurs en ATI a une bataille de retard. En effet, rien de consistant n'est proposé pour concurrencer 3D vision de Nvidia en matière de stéréoscopie. A ce propos, que des effets d'annonce qui n'ont mené à rien, concernant notamment les lunettes shutter bit cauldron qui étaient sensées arriver sur le marché et permettre l'utilisation des écrans 120hz en 3D. Si ATI ne développe pas de solution propriétaire à ce propos et s'absente de la bataille, il ne faudra pas s'étonner que des joueurs passent du coté du caméléon, et cela quel que puisse être la qualité de présentation et d'emballage des produits ATI haut de gamme.
par Tnerolf, le Mardi 28 Septembre 2010 à 06h57  
par Un ragoteur de transit, le Lundi 27 Septembre 2010 à 21h10
Deux gtx460 oc arrivent aux mêmes résultats que cette carte graphique pour un prix bien inférieur.
Ce n'est pas le rapport qualité prix visé içi... ça tombe sous le sens
par Alandu14, le Mardi 28 Septembre 2010 à 05h00  
Je suis étonné qu'elle soit encore plus froide qu'une HD5870 en tout cas! Bon après, perf un peu déçu en teslation, mais ça tombe bien, j'allais pas en acheter