COMPTOIR
  
register

×

Diagramme GF110 / GPC GF110

Test • nVIDIA GeFORCE GTX 570 / 580
Diagramme GF110 / GPC GF110
GPUZ GeFORCE GTX 580
gpuz_570_t.png

• GF110, Fermi done right !

Tout comme AMD a du réutiliser le 40 nm de TSMC pour sa seconde génération de puces DX11, nVIDIA est contraint de faire de même avec son nouveau-né. Par contre, même s'il porte le nom GF110, ce GPU n'a en fait pas grand-chose de nouveau et aurait très bien pu s'appeler GF100 A4 ou plutôt B1 vu l'ampleur de la révision. En effet, difficile d'imaginer que nVIDIA ait conçu un GPU fort complexe pour finalement  sciemment décider de l'amputer de quelques millions de transistors (dans sa version la plus haut de gamme, cela se conçoit par contre en descendant en gamme pour écouler les unités partiellement défectueuses lors de la gravure) en le commercialisant. 

 

Sachant que le coût de production dépend de la surface de silicium utilisée, autant se tirer une balle dans le pied, le caméléon a donc été contraint de recourir à ces amputations pour palier des problèmes de production/design de sa puce qui aurait  nécessité une nouvelle révision pour y remédier avant commercialisation. Seulement voilà, la concurrence étant ce qu'elle était  à l'époque, nVIDIA a du se résoudre à lancer une puce "imparfaite" pour occuper le terrain tout en travaillant à une nouvelle révision de cette dernière qui prendra finalement le nom GF110. Physiquement, s'il est recouvert d'un heatspreader à l'instar de son prédécesseur, le packaging est le même :

GF110

GF 110 recouvert de son heatspreader

 

La superficie de silicium utilisée est donc toujours très importante, mais cette fois-ci TSMC et nVIDIA ont été en mesure de fiabiliser suffisamment la production pour fournir des puces pleinement fonctionnelles. Avec la révision efficace de l'architecture Fermi entrevue sur le GF104 des GTX 460 qui a apporté une répartition différentes des transistors au profit des unités de texturing (TMU) et Cuda Cores, beaucoup ont imaginé que le successeur du GF100 repartirait sur ces bases.

 

Mais que nenni, nVIDIA persiste et signe, sa répartition initiale était la bonne, le GF104 en utilise une différente car il est conçu pour assurer  un bon compromis en termes de performance à la fois avec les jeux DX9/10 (plus sensibles aux performances en texturing) et DX11 (plus sensibles à la puissance géométrique selon nVIDIA) et ce avec un nombre de transistors limité alors que le GF110 n'a pas cette problématique. Au final l'architecture de ce dernier est donc la même que celle du GF100 :

 

Diagramme GF110 / GPC GF110 [cliquer pour agrandir]

 Diagramme GF110 : cliquer pour agrandir un GPC

 

Elle s'articule autour de 4 GPC (Graphics Processing Cluster) liés à 6 contrôleurs mémoire 64 bits (disposant de 8 ROP chacun) et comprenant en leur sein un Raster Engine et 4 SM (Streaming Multiprocessors) chacun composé de 32 unités de calcul scalaires  ou Cuda Cores, 4 TMU et un Polymorph Engine dédié à la géométrie et en particulier à la  Tesselation dont on parle beaucoup avec DX11. 

SM GF110 

  Diagramme d'un Streaming Multiprocessors (SM) des GF100/110

 

Au final on retrouve donc les 512 unités de calcul, 64 TMU, 48 ROP et 384 bits du GF100, difficile d'ailleurs de trouver une vraie différence entre les 2 puces. Pour plus de détails concernant l'architecture, vous pouvez vous reporter à notre dossier  GTX 480/470/465. Le caméléon annonce toutefois avoir travaillé sur les courants de fuites en remplaçant certains transistors afin d'abaisser la consommation et favoriser la montée en fréquence.

 

Autres points "optimisés" : la prise en charge du filtrage à pleine vitesse des textures FP16 (à l'instar du GF104 des GTX460, a priori plus une correction qu'une réelle nouveauté) et l'amélioration du z-culling (rejet des surfaces cachées inutiles à traiter). Au final, le GF110 de la GTX 580 est donc un GF100 dont toutes les unités ont été activées, cadencé plus rapidement et disposant de légères optimisations/corrections ! NVIDIA traduit les gains applicatifs de ces différents facteurs de la façon suivante : 

 

Optimisations GF110

Gains GF110 / GF100

 

Que nous apprend GPU-Z à propos de ce nouveau GPU  et des 2 cartes l'utilisant ? Eh bien peu ou prou la même chose, on retrouve enfin toutes les unités activées sur une puce récente du caméléon, ça change. Les fréquences GPU et GDDR5 sont en hausse d'une dizaine de pourcents sur la GTX 580 par rapport à la GTX 480 et bus 384 bits oblige, on retrouve 1,5 Go de mémoire embarquée. La GTX 570 réutilise la même configuration pour le GPU que la 480 avc un SM désactivé mais des fréquences en hausse. Côté GDDR5 le bus passe à 320 bits avec un controleur mémoire désactivé et les 8 ROP associés.

 

GPUZ GeFORCE GTX 580 [cliquer pour agrandir]gpuz_570_t.png [cliquer pour agrandir]

 GPUZ GeFORCE GTX 580

 

Pas beaucoup de nouveauté en somme à se mettre sous la dent, enfin si, la plus flagrante ne provient pas de la puce ou de l'architecture, mais du ventirad de la carte. En effet, il s'est montré aussi peu efficace que bruyant sur les GTX 470/480 et a lourdement contribué à entacher définitivement l'image de ces dernières ! Le caméléon a retenu la leçon et s'est donc lancé dans la conception d'un système plus efficace à base de chambre à vapeur :

 

Chambre à vapeur GTX 580

Schéma chambre à vapeur

 

Grosso modo c'est le principe d'un caloduc mais avec une surface bien plus importante puisque recouvrant l'intégralité de la surface du GPU à sa base et la largeur du radiateur au sommet. NVIDIA annonce des températures en charge et des nuisances sonores en nette baisse, nous verrons cela à la fin du dossier. Voyons en pratique la GTX 580 page suivante.



Un poil avant ?

15 CPU entrée de gamme, un seul gagnant ou plusieurs ? That's the question !

Un peu plus tard ...

La GTX 580 va pouvoir prendre sa douche !

Les 82 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Gm74, le Lundi 03 Janvier 2011 à 06h49  
Ben finalement j'ai trouvé une 580 EVGA en destockoge chez RDC au même prix qu'une 570
par Gm74, le Dimanche 19 Décembre 2010 à 19h06  
c'est décidé en janvier jme fait péter une 570
par Un ragoteur n° 258874, le Samedi 20 Novembre 2010 à 20h44  
bonne carte pour noel et ati non merci !!
par François, le Mercredi 17 Novembre 2010 à 13h09  
tu peux trouver la 5970 à 500€ aussi mais oui c'est vrai sans compté que les bi-gpu ont des soucis de perfs avec certains jeux.
par Elipsus, le Mercredi 17 Novembre 2010 à 09h53  
je vous le dis tout de suite:je suis un fan boy Nvidia!
mais la GTX 480 m'avait rebuter par sa chauffe et sa conso!
la 580 et plutot sympa au final,si on oublie que c'est un mono GPU:
le prix et plutot bon par rapport a la 5970!(environ 630euro pour la 5970)
les perfs sont similaires a la 5970!avec un conso legerement moindre!(un chouia)

donc cette carte a globalment un rapport perf/prix/conso meilleur que la 5970
du moin ,c'est mon avis de fanboy!
par MaXou, le Mardi 16 Novembre 2010 à 18h59  
Petit problème de smiley... Faites comme si y en avais pas
par MaXou, le Mardi 16 Novembre 2010 à 18h57  
En tout cas y en a qui ont toujours pas compris qu'ils pourront pas battre les rédacteurs du CDH au petit jeu du ragotage. C'est que la sélection et rude pour intégrer le comptoir, avec en plus les slip de Thibaut et les vannes de Florian (ou l'inverse je sais plus :rolleyes
Au passage, très bon test et toujours aussi impartial quoi qu'en disent les mauvaises langues/Fanboy.
par Un ragoteur qui revient, le Mardi 16 Novembre 2010 à 18h27  
Un sli de gtx580 pour starcraft2, pas de doutes ce sont des pros....du blabla
par Charlie, le Dimanche 14 Novembre 2010 à 21h44  
JE me suis fait installé par les pro d'absolute PC (http://www.facebook.com/pages/Paris-France/Absolute-Pc/116401015046043) une mise a jour de mon PC avec un sli de 580 et les résultats sont sur le lien. Pas mal, je vais pouvoir installer starcraft 2
par Eric B., le Dimanche 14 Novembre 2010 à 13h11  
C'est notre cas, je ne vois d'ailleurs pas bien le rapport d'une bonne partie de ton msg avec ce point ? On est ici pour rappel sur le dossier GTX 580, donc une carte élitiste par essence et en aucun cas soumise aux règles de choix/pertinence d'achat des cartes plus axées grand public, ici le "coup de coeur" et la performance brute prime sur toutes autres considérations...
par Réfrigérateur américai, le Dimanche 14 Novembre 2010 à 12h44  
Sauf exception, le programme TWIMTBP procure un avantage en début de vie d'un jeu et biaise les comparatifs sur des périodes plus ou moins longues. Chaque année une nouvelle vague de GPU et il faut faire bonne impression pour vendre...

Stéphane (Matbe/PCWorld.fr) comme d'autres ne met à jour ses relevés que 2 fois par an...

Les eXtreme Edition (CPU, GPU et peut-être un jour APU) ne concernent forcément qu'une frange des consommateurs/gamers la grande majorité étant sensible au prix d'acquisition (la bonne affaire au meilleur prix) et dans une moindre mesure au coût à l'usage (TCO).

Restons lucides
par Un ragoteur n° 258874, le Samedi 13 Novembre 2010 à 22h49  
Eric B ''mais la plupart en particulier en haut de gamme comme ici s'en moque éperdument, la performance primant ! ''

+1