COMPTOIR
  
register

Preview • Le point sur le GT300 "Fermi" de Nvidia

GT300 "Fermi" : Nvidia dévoile sa solution DX11

 

Nvidia vient cette nuit, lors de la GPU Technology Conference, de présenter officiellement le GT300. Si une part de mystère demeure toujours, le caméléon n'ayant pas non plus encore dévoilé toutes ses cartes comme les fréquences de fonctionnement de son futur bébé, nous en savons néanmoins bien plus sur l'architecture, que ce soit au niveau du nombre de SP, du bus mémoire, ou encore d'une première pour des cartes graphiques : l'introduction de mémoire cache de second niveau, à la manière des CPUs. Cerise sur le gâteau Jen-Hsun Huang, Mr. Nvidia, a même montré une des cartes qui feront la prochaine gamme Nvidia. AMD doit-il redouter cette annonce ? Réponse dans cet article.

 

GT300 / Fermi preview



Un poil avant ?

Une nouvelle révision pour le Megahalems

Un peu plus tard ...

La GTX260 plus courte et mieux refroidie chez Zotac

Les 51 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par eleven68, le Samedi 17 Octobre 2009 à 05h13  
Autre petite remarque, c'est quand meme bien calculé pour l'amortir en touchant un public plus large (ben oui les Gamers ne rapportent plus avec des cartes à 400 roros).Je crois que si elles ne sortent pas avant Noel et d'ici là on aura l'occasion de les avoir vu en tests ben Ati aura une petite longueur d'avance.
par eleven68, le Samedi 17 Octobre 2009 à 05h00  
A voir.... Pas d'essaie bizard... ne serait ce pas un boitier vide lol.En esperant que je ne m'arrache pas un 2eme rein aprés la 295. Si c'est trop cher ATI aura un gros avantage et sa gamme n'est pas complete avec les 5890 meme si 2 gpu et moins cher que la Fermi. Je penses que Nvdia devra bien calculer son prix de départ sinon la Fermi restera à la Ferme lol (pertit jeux de mots)
par Mouais... , le Vendredi 02 Octobre 2009 à 23h11  
C'est bien beau le GPU Computing, mais ça va intéresser quels utilisateurs non pro? On ne parle que de ça, mais quid des perfs "in game" qui intéressent le grand public? (je me trompe peut-être?)Ce qui me fait bien rigoler c'est qu'on agite une carte sans rien montrer de ses perfs. Une plateforme en marche aurait été la bienvenue. Intel l'a fait avec Larrabee bien que ça ne soit pas au point (IDF 2009).Ce qu'on sait actuellement c'est qu'Nvidia n'a rien et propose sur le papier une solution qui devrait couter un bras... Très bonnes perfs pour les applis pro utilisant toutes les technologies que bon nombre d'entre nous n'utilise pas (Mes GTX 2XX ne me servent qu'à jouer). Ce qui est génial c'est qu'avec ce bazar on va pouvoir convertir une vidéo HD en 30 secondes. Bref, le concret c'est qu'AMD propose une carte DX11 qui envoie plus de bois que certains veulent bien l'admettre et qui est la soluc' gamer actuelle. (Pas d'AA dans batman?? Force les dans les catalyst!!)
par Un ragoteur qui se tâte, le Vendredi 02 Octobre 2009 à 16h54  
GeForce "GT300" (?), 512SP (16 blocs sur le die), bus mémoire 384-bit, GDDR5, 2xxWGeForce GTX285 (648MHz/1476MHz/1242MHz), 240SP, bus mémoire 512-bit, 1024Mo GDDR3, 204WGeForce GTX295 (576MHz/1242MHz/999MHz), 240SP/GPU, bus mémoire 448-bit/GPU, 896Mo GDDR3/GPU, 289W max
par Un ragoteur qui se tâte, le Jeudi 01 Octobre 2009 à 21h38  
Un simple coup d'oeil au die infirme leur discours sur la "scalability".Si ils peuvent diminuer le nombre de "briques" d'exécution, toute la partie centrale est elle quasi impossible à réduire, et vu la place qu'elle prend... ça rendrait tout simplement une version allégée totalement non viable.
par zecrou, le Jeudi 01 Octobre 2009 à 18h17  
ca me rappelle l'annonce de la PS2 avec son processeur emotion engine.Malgré un grand retard sur la dreamcast, et bien qu'elle ne soit pas tellement supérieure techniquement, elle s'est largement imposée grâce à une super communication : tout le monde a attendu la sortie de la PS2 et la dream est presque morte-née. :'(
par Ikaruga, le Jeudi 01 Octobre 2009 à 17h01  
Faut pas oublier que la mémoire cache ça coute cher et ça chauffe.consomme un peu quand même (rien qu'à voir la différence de consommation et de prix entre Q9xxx et Q9x5x chez Intel). Pareil chez AMD qui avec ses premiers Phenom avait du limiter la mémoire cache car elle était cher et risquerait de consommer trop (déjà que le Phenom tel quel n'était pas spécialement économe en énergie :rolleyes.Le dernier exemple en date ce sont les Athlon II X4 600 qui seraient pour certains des Phenom II X4 avec une la mémoire cache désactiver, remarquons que le TDP est de 95W pour les Athlon contre 125 en Phenom, la désactivation de cette mémoire suffirait à descendre autant le TDP alors.Je sais pas si les défauts de la mémoire cache resteront sur cette génération mais bon, faudra faire attention. Par contre le gain de performance que peut procurer la nouvelle hiérarchie des caches sur ce GPU c'est
par Flanker, le Jeudi 01 Octobre 2009 à 15h35  
Gros bébé en prévision, par contre cette débauche de nouvelles technologies accessoires couplé à des telles specs, ça va se payer CHER, TRES CHER, prêt à vendre un rein?
par SoKette, le Jeudi 01 Octobre 2009 à 13h57  
par Paulochon le Jeudi 01 Octobre 2009 à 10h49
En même temps chez nVidia il passe d'un bus 512 bits à un bus 384 bits pour cette nouvelle génération.
ils passent d'un bus mémoire 512 bits à 384 bits oui mais de GDDR3 à GDDR5 c'est là toute la différence !! Au début la carte devait être en bus 512 bits + GDDR5 mais les rendements étaient catastrophiques et le bus a du être reduit à 384 bits (en théorie d'après les rumeurs)La GDDR3 c'est deux fois moins rapide que la GDDR5 faut pas oublier, c'est d'ailleurs comme ça que luttais Ati/AMD sur les perfs en bande passante face au GT200 et son bus 512 bits : GDDR5 et fréquence mémoire permise ultra élevée sur bus 256 bits.
par SoKette, le Jeudi 01 Octobre 2009 à 13h47  
Interressant franchement le GT300 (le bus mémoire en particulier), par contre :"Pour finir, à l'heure actuelle il est question d'un lancement en fin d'année pour la première carte Fermi. Jen-Hsun Huang a cependant annoncé que, contrairement au GT200 qui était très difficile à décliner, le Fermi est lui autrement plus "malléable"."Je vois pas pourquoi fermi serait plus malléable que le GT200, marketing ?
par iRyusa le Jeudi 01 Octobre 2009 à 13h09
Petite question qui me turlupine( mot compte double ), on rabache sans cesse que les radeons ont une " faible " bande passante par rapport à ses concurrents ( gt300 / 200 ) mais Dx11 ne devait pas réduire la charge sur la BP normalement?
Quand bien même DX11 réduirait la charge sur la bande passante, c'est toujours bon d'avoir du rab' (surtout quand tu vois que le bus de la 5870 est ultra saturé et que ça peut énormément influer sur les perfs du crossfire)
par sabbathius, le Jeudi 01 Octobre 2009 à 13h45  
Banzai, j'ai déja débloqué depuis longtemps une bonne somme pour m'en emparer
par Kaelas, le Jeudi 01 Octobre 2009 à 13h44  
Et maintenant dit toi que la principale utilisation de ton PC est le jeux video, que tu as revendu ton ancienne CG pour acheter une nouvelles génération ATI, qu'en attendant tu te promène avec une X1950 Pro, que les ATI viennent de sortir et qu'Nvidia nous sort son blabla sur le GT300. Dans le fond ce qu'ils disent fait rêver, mais ATI faisait aussi rêver avec la présentation de sa puce mais les HD5XXX ne sont aujourd'hui pas une révolution. Mon avis pour Nvidia se fait donc par rapport à ATI, le même genre d'annonce, pour le même résultat ne changeant en rien la tendance du marché et me poussant donc à céder pour une HD5XXX.Et donc je pense qu'ATI fait un bon coup en sortant ses cartes maintenant, les joueurs pro ATI achetent leur cartes, d'autres qui ne peuvent pas attendre (comme moi, ayant pourtant un penchant pour les Nvidia) et puis en plus, c'est bientot noël! Quand la GT300 sortira, il restera les gens qui auront pu attendre! 4 mois minimum, c'est quand même long :/