COMPTOIR
  
register

Les fréquences des GTX4x0 dévoilées ?

SemiAccurate, le site qui est un clone de Fudzilla, vient de lancer un papier sur les fréquences des GTX480 et GTX470. Selon SA, les fréquences seraient de 600 à 625 MHz pour le core et 1200 à 1250 MHz pour les shader, la carte conservant ses 512 SP et le bus 384 bits. Quant au GTX470, les fréquences seraient de 625/1250 MHz pour le core/shader, toujours avec ses 448SP et on ignore encore si le bus mémoire sera de 384 ou 320 bits. Au final, avec ces chiffres et une grosse boule de cristal, SA arrive à donner une différence de performances entre HD5870 et GTX480 de 5% à l'avantage de la dernière citée. Plus que jamais il est temps que Nvidia communique sur le sujet, et c'est prévu lundi à 18h, on espère que ce ne sera pas un coup pour rien !

 

tesla_c2070.jpg  

Un poil avant ?

Bon plan: Phenom II X2 550 3.1GHz 6Mo de cache L3 à 63€90

Un peu plus tard ...

Bon plan: Athlon II X4 620, un quadcore à 69€90 !

Les 37 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par skyr-angel, le Lundi 22 Février 2010 à 16h35  
hmmhttp://www.nokytech.net/les_prix_des_gtx_480_et_470_xf-8383-a.htmlheuaie !
par Un ragoteur de transit, le Lundi 22 Février 2010 à 16h28  
Euh la gtx280 à 550 euros c'est un peu du troll, je l'avais acheté 400 euros à sa sortie, elle est vraiment pas rester longtemps à 550 euros. Après c'est vrai que contrairement à Apple pour son iphone ils ont pas envoyés de reçu avec la différence (mais bon faut pas rêver non plus).
par LTDark, le Lundi 22 Février 2010 à 15h23  
ben il restera tout de meme une difference enorme entre les deux.le debit de triangle le seul souci c'est que je sais pas ce que ca represente concretement.http://www.hardware.fr/articles/782-6/nvidia-geforce-gf100-revolution-geometrique.htmlvoir le tableau tout en bas.donc shaders nvidia 1200mhz=2400 millions de triangle / secondeati shaders (puisque = a la frequence gpu)725/850mhz= 725/850 millions de triangle / seconde.dans quel cas un jeux utilise bcp de triangle ?les editeurs risque t'il de ce mettre du jour au landemain a exploiter les triangle a donf ?
par Un ragoteur inspiré, le Lundi 22 Février 2010 à 10h02  
""Au final, avec ces chiffres et une grosse boule de cristal, SA arrive à donner une différence de performances entre HD5870 et GTX480 de 5%""Cela fait des années qu'on nous sort ce genre de calcul pour les CG et les procos (vous vous rappelez de la X1650, du pentium 4, du phenom I, etc ??:troll.Mais comme on a rien à se mettre sous la dent on adore lire ce genre de news.
par mvrr, le Dimanche 21 Février 2010 à 18h02  
"SemiAccurate, le site qui est un clone de Fudzilla"C'est une incitation au troll ? On a le droit de troller ?
par Un ragoteur inspiré, le Dimanche 21 Février 2010 à 14h52  
Dans tous les cas les news présenté jusqu'à présent plus le retard nous laisse penser que le Fermi risque d'être loin de ce que Nvidia et les consommateurs attendaient, une carte très performante... On saura si c'est le cas d'ici peu (ou pas...) de toute façon!!!
par Leecher, le Dimanche 21 Février 2010 à 14h46  
"nVidia ne fera une erreur"comprenez "ne fera pas l'erreur"erreur de frappe
par Leecher, le Dimanche 21 Février 2010 à 14h43  
juste une chose:5% de plus au niveau fréquence ne veut pas dire 5% de perf en plus !j'avais une 8800gts320(dc G80)et leur coup de la 8800gt(G92) ma rendu fou... je me suis dc tourné vers ati et sa HD4850 et je pense pas etre le seul dans ce cas là; nvidia ne fera une erreur de sortir une nouveauté (avec autant de retard sur la concurrence) sans écart significatif des performances.mais c mon avis...
par Crepe182, le Dimanche 21 Février 2010 à 13h56  
Au temps ou j'avais ma 4850 certain chose était tout simplement impossible a réaliser sous blender sous XP. Et se pour apparemment aucune raison, même ma 7900GS fonctionné mieux. J'ai parcouru un peu les forum et la solution a sa était .... Nvidia. ATI est tailler pour le Jeux ( quand les pilotes veulent bien forcer l'AA chose qui ne marche pas non plus au temps de ma 4850). Pour moi ATI a un bon Rapport Perf/prix, Nvidia est plus chère mais avec une qualité légèrement supérieur. (si on passe au dessus de leur politique foireuse car avec un peu de jugeote tu n'achète pas n'importe quoi). Pour moi Choix entre ATI et Nvidia se fait pas par rapport au perf mais par rapport au Besoin ! Il n'y a pas que le nombre de FPS dans le jeux le moins bien optimisé du moment a prendre en compte.... Chose que beaucoup oublie.
par le sage, le Dimanche 21 Février 2010 à 13h39  
Vous battez pas hein, l'annonce c'est demain
par skyr-angel, le Dimanche 21 Février 2010 à 13h38  
par Un ragoteur qui passe le Dimanche 21 Février 2010 à 13h36
Nvidia a atteint la limite autorisée de la consommation d'une CG (300 W max sont autorisés sur les ports PCI-E 2.0). Tout ce qu'ils peuvent faire s?est préparé la Fermi rev. 2 pour espérer dépasser ATI. Mais d'ici là ils seront confrontés au HD 6000 gravé à 28 nm.Pour l'instant le seul intérêt de prendre un GPU Nvidia c'est d'utiliser un moteur de rendu temps réel pour l'infographie 3D, basé sur CUDA, tel que Iray. Ou encore de faire de la 3D avec Blender sous Linux.
pouf mais plus je te lis plus je te trouve trollesque...
par skyr-angel, le Dimanche 21 Février 2010 à 13h37  
par Beginner-Gamer le Dimanche 21 Février 2010 à 13h30
Mais il n'y a pas de mal sky-angel,l'erreur est humaine...Effectivement,Nvidia a baissé sa carte de 150 e suite à la sortie de la génération HD 4000,ce qui a d'ailleurs provoqué une certaine frustration chez le Nvidia fanboys qui ont eu l'impression de s'être fait rouler (pour rester poli) par le caméléon...