COMPTOIR
register

Preview • Le point sur le GT300 "Fermi" de Nvidia
• Les bases du nouveau GPU

 

Fermi : larchitecture

 

Voilà donc ce fameux die de Fermi vu de près. L'impressionnant total de 3 milliards de transistors est atteint grâce à la gravure en 40nm, un total qui donne presque le vertige, comparé aux 1.4 milliards de transistors du GT200, ou même aux 2.15 milliards du Cypress d'AMD, lui aussi en 40nm.

 

Les unités de calcul sont également en forte hausse, ainsi si la GTX 285 par exemple en possédait 240, le Fermi lui disposera de 512SP, soit plus du double ! Nvidia annonce par ailleurs des performances en calcul "double précision" qui pourront être jusqu'à multipliées par 8.

 

Enfin grandes nouveautés mises en avant par la marque : la correction d'erreurs ECC sera de la partie pour une meilleure fiabilité, et il sera également possible de compiler en C++ pour le Fermi (langage qui vient donc s'ajouter à ceux déjà supportés : C, Java, Python, OpenCL, DirectCompute...), qui serait une pionnière dans le domaine de la programmation à ce niveau. Vous noterez le titre de la diapositive : "l'âme d'un supercalculateur dans le corps d'un GPU", voila qui confirme l'orientation prise : le Fermi a été conçu en pensant aux applications professionnelles et logicielles, pas que pour le jeu. Un couteau suisse de la 3D en quelque sorte...

 

 

• L'architecture plus en détails

 

diagramme du Fermi

 

Voici le diagramme du GT300 par "blocs". Première information très intéressante montrée par ce diagramme : la présence de 6 "DRAM I/F", qui sont chacun de 64bits. Le calcul est simple : 6*64 = 384bits, le Fermi disposera donc d'un bus mémoire 384bits, associé à de la GDDR5. Une combinaison qui était très espérée sur les HD5800 mais qui ne s'est pas révélée exacte. Le GT300 en sera lui bel et bien doté, et l'on peut s'attendre à une bande passante phénoménale donc. Il est également annoncé que le Fermi pourra disposer  de 1.5, 3 ou même 6Go de GDDR5 !

 

Pour faire simple ensuite, le diagramme nous montre également que le Fermi se compose de 16 SM (Streaming Multiprocessors), placés de chaque côté d'une mémoire cache L2 centrale.

 

architecture des processeurs de streaming

 

Voici le gros plan d'un de ces SM. Ils contiennent chacun de la mémoire cache L1, et bien sûr des unités d'exécution représentées par les petits carrés verts. On en compte 32 par SM d'où les 512SP au total du die.

Au total, chaque SM disposera de 64Ko de mémoire, dispatchés entre la mémoire partagée et le cache L1. Viendra donc s'ajouter encore à cela la mémoire cache L2, 768Ko par SM, une première pour un GPU.

 

 

• Un nouveau potentiel pour les cores

 

core cuda optimisés 

 

Nvidia ne se contente pas d'annoncer qu'il y aura bien plus de cores à son GT300 comparé au GT200 (512 contre 240), il indique également que l'efficacité des coeurs du Fermi sera décuplée grâce à l'adoption d'un nouveau standard de calcul en virgule flottante : le IEE 754-2008, qui serait  selon eux ce qui se fait de plus performant à l'heure actuelle. Tout serait de plus optimal pour un usage 64bits, qui va tendre à se démocratiser dans un avenir proche y compris sur les PC grand public (depuis le temps qu'on l'attend...).

 

 

• La mémoire totalement repensée

 

de la mémoie cahce L2 dans un GPU !

 

Comme nous l'avons déjà dit, le Fermi sera la première puce graphique à voir apparaître une véritable hiérarchie dans la présence de la mémoire cache de son GPU, à la manière finalement des CPUs. Chaque coeur aura ainsi à sa disposition tout d'abord la mémoire partagée et le cache L1 pour un total de 64Ko disponibles. Le cache L1 pourra ensuite faire appel au cache de second niveau, disposant lui de 768Ko supplémentaires par SM (32 coeurs), plus lent que le L1 mais presque le décuple en taille. Enfin seulement se trouvera l'accès à la mémoire GDDR5 de la carte. Un choix qui pourrait s'avérer très payant !

 

Un GPU qui utilise lECC

 

Autre information quant à cette mémoire : toutes les mémoires internes que nous avons citées seront ECC, c'est-à-dire qu'elles disposeront d'une protection contre les "erreurs". La GDDR5 supportera également l'ECC.

 

 

• Le GigaThread

 

Gigathread

 

On le sait, l'avenir est au parallélisme pour améliorer le temps d'exécution des tâches. La solution adoptée par Nvidia avec le GT300 porte le nom de "GigaThread", capable selon la firme de gérer des milliers de threads simultanément, et de passer de l'un à l'autre 10 fois plus rapidement qu'auparavant.

 

Gigathread

 

 

• Rappel des principales caractéristiques

 

caracteristiques du GT300

 

Un beau tableau valant souvent mieux qu'un long discours, voici pour résumer donc les principales caractéristiques du Fermi, comparé aux deux architectures précédentes majeures du caméléon, les G80 et GT200.

 



Un poil avant ?

Une nouvelle révision pour le Megahalems

Un peu plus tard ...

La GTX260 plus courte et mieux refroidie chez Zotac

Les 51 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par eleven68, le Samedi 17 Octobre 2009 à 05h13  
Autre petite remarque, c'est quand meme bien calculé pour l'amortir en touchant un public plus large (ben oui les Gamers ne rapportent plus avec des cartes à 400 roros).Je crois que si elles ne sortent pas avant Noel et d'ici là on aura l'occasion de les avoir vu en tests ben Ati aura une petite longueur d'avance.
par eleven68, le Samedi 17 Octobre 2009 à 05h00  
A voir.... Pas d'essaie bizard... ne serait ce pas un boitier vide lol.En esperant que je ne m'arrache pas un 2eme rein aprés la 295. Si c'est trop cher ATI aura un gros avantage et sa gamme n'est pas complete avec les 5890 meme si 2 gpu et moins cher que la Fermi. Je penses que Nvdia devra bien calculer son prix de départ sinon la Fermi restera à la Ferme lol (pertit jeux de mots)
par Mouais... , le Vendredi 02 Octobre 2009 à 23h11  
C'est bien beau le GPU Computing, mais ça va intéresser quels utilisateurs non pro? On ne parle que de ça, mais quid des perfs "in game" qui intéressent le grand public? (je me trompe peut-être?)Ce qui me fait bien rigoler c'est qu'on agite une carte sans rien montrer de ses perfs. Une plateforme en marche aurait été la bienvenue. Intel l'a fait avec Larrabee bien que ça ne soit pas au point (IDF 2009).Ce qu'on sait actuellement c'est qu'Nvidia n'a rien et propose sur le papier une solution qui devrait couter un bras... Très bonnes perfs pour les applis pro utilisant toutes les technologies que bon nombre d'entre nous n'utilise pas (Mes GTX 2XX ne me servent qu'à jouer). Ce qui est génial c'est qu'avec ce bazar on va pouvoir convertir une vidéo HD en 30 secondes. Bref, le concret c'est qu'AMD propose une carte DX11 qui envoie plus de bois que certains veulent bien l'admettre et qui est la soluc' gamer actuelle. (Pas d'AA dans batman?? Force les dans les catalyst!!)
par Un ragoteur qui se tâte, le Vendredi 02 Octobre 2009 à 16h54  
GeForce "GT300" (?), 512SP (16 blocs sur le die), bus mémoire 384-bit, GDDR5, 2xxWGeForce GTX285 (648MHz/1476MHz/1242MHz), 240SP, bus mémoire 512-bit, 1024Mo GDDR3, 204WGeForce GTX295 (576MHz/1242MHz/999MHz), 240SP/GPU, bus mémoire 448-bit/GPU, 896Mo GDDR3/GPU, 289W max
par Un ragoteur qui se tâte, le Jeudi 01 Octobre 2009 à 21h38  
Un simple coup d'oeil au die infirme leur discours sur la "scalability".Si ils peuvent diminuer le nombre de "briques" d'exécution, toute la partie centrale est elle quasi impossible à réduire, et vu la place qu'elle prend... ça rendrait tout simplement une version allégée totalement non viable.
par zecrou, le Jeudi 01 Octobre 2009 à 18h17  
ca me rappelle l'annonce de la PS2 avec son processeur emotion engine.Malgré un grand retard sur la dreamcast, et bien qu'elle ne soit pas tellement supérieure techniquement, elle s'est largement imposée grâce à une super communication : tout le monde a attendu la sortie de la PS2 et la dream est presque morte-née. :'(
par Ikaruga, le Jeudi 01 Octobre 2009 à 17h01  
Faut pas oublier que la mémoire cache ça coute cher et ça chauffe.consomme un peu quand même (rien qu'à voir la différence de consommation et de prix entre Q9xxx et Q9x5x chez Intel). Pareil chez AMD qui avec ses premiers Phenom avait du limiter la mémoire cache car elle était cher et risquerait de consommer trop (déjà que le Phenom tel quel n'était pas spécialement économe en énergie :rolleyes.Le dernier exemple en date ce sont les Athlon II X4 600 qui seraient pour certains des Phenom II X4 avec une la mémoire cache désactiver, remarquons que le TDP est de 95W pour les Athlon contre 125 en Phenom, la désactivation de cette mémoire suffirait à descendre autant le TDP alors.Je sais pas si les défauts de la mémoire cache resteront sur cette génération mais bon, faudra faire attention. Par contre le gain de performance que peut procurer la nouvelle hiérarchie des caches sur ce GPU c'est
par Flanker, le Jeudi 01 Octobre 2009 à 15h35  
Gros bébé en prévision, par contre cette débauche de nouvelles technologies accessoires couplé à des telles specs, ça va se payer CHER, TRES CHER, prêt à vendre un rein?
par SoKette, le Jeudi 01 Octobre 2009 à 13h57  
par Paulochon le Jeudi 01 Octobre 2009 à 10h49
En même temps chez nVidia il passe d'un bus 512 bits à un bus 384 bits pour cette nouvelle génération.
ils passent d'un bus mémoire 512 bits à 384 bits oui mais de GDDR3 à GDDR5 c'est là toute la différence !! Au début la carte devait être en bus 512 bits + GDDR5 mais les rendements étaient catastrophiques et le bus a du être reduit à 384 bits (en théorie d'après les rumeurs)La GDDR3 c'est deux fois moins rapide que la GDDR5 faut pas oublier, c'est d'ailleurs comme ça que luttais Ati/AMD sur les perfs en bande passante face au GT200 et son bus 512 bits : GDDR5 et fréquence mémoire permise ultra élevée sur bus 256 bits.
par SoKette, le Jeudi 01 Octobre 2009 à 13h47  
Interressant franchement le GT300 (le bus mémoire en particulier), par contre :"Pour finir, à l'heure actuelle il est question d'un lancement en fin d'année pour la première carte Fermi. Jen-Hsun Huang a cependant annoncé que, contrairement au GT200 qui était très difficile à décliner, le Fermi est lui autrement plus "malléable"."Je vois pas pourquoi fermi serait plus malléable que le GT200, marketing ?
par iRyusa le Jeudi 01 Octobre 2009 à 13h09
Petite question qui me turlupine( mot compte double ), on rabache sans cesse que les radeons ont une " faible " bande passante par rapport à ses concurrents ( gt300 / 200 ) mais Dx11 ne devait pas réduire la charge sur la BP normalement?
Quand bien même DX11 réduirait la charge sur la bande passante, c'est toujours bon d'avoir du rab' (surtout quand tu vois que le bus de la 5870 est ultra saturé et que ça peut énormément influer sur les perfs du crossfire)
par sabbathius, le Jeudi 01 Octobre 2009 à 13h45  
Banzai, j'ai déja débloqué depuis longtemps une bonne somme pour m'en emparer
par Kaelas, le Jeudi 01 Octobre 2009 à 13h44  
Et maintenant dit toi que la principale utilisation de ton PC est le jeux video, que tu as revendu ton ancienne CG pour acheter une nouvelles génération ATI, qu'en attendant tu te promène avec une X1950 Pro, que les ATI viennent de sortir et qu'Nvidia nous sort son blabla sur le GT300. Dans le fond ce qu'ils disent fait rêver, mais ATI faisait aussi rêver avec la présentation de sa puce mais les HD5XXX ne sont aujourd'hui pas une révolution. Mon avis pour Nvidia se fait donc par rapport à ATI, le même genre d'annonce, pour le même résultat ne changeant en rien la tendance du marché et me poussant donc à céder pour une HD5XXX.Et donc je pense qu'ATI fait un bon coup en sortant ses cartes maintenant, les joueurs pro ATI achetent leur cartes, d'autres qui ne peuvent pas attendre (comme moi, ayant pourtant un penchant pour les Nvidia) et puis en plus, c'est bientot noël! Quand la GT300 sortira, il restera les gens qui auront pu attendre! 4 mois minimum, c'est quand même long :/