Test • BFG 8800 GTS 320Mo, attaque sur le milieu de gamme |
————— 12 Février 2007
Test • BFG 8800 GTS 320Mo, attaque sur le milieu de gamme |
————— 12 Février 2007
Faisons un bref rappel du principe de fonctionnement du GPU.
Initialement, le rendu 3D repose sur la technique de texturing, c'est-à-dire que pour chaque pixel l’on assignait une texture pour l’habiller. Les différents traitements des textures progressant, sont arrivés les shaders, fonctions mathématiques –complexes du reste– permettant l’indexation des données pour en optimiser les usages. On parle notamment de vertex shaders chargés des calculs géométriques et des pixels shaders dédiésl’habillage des pixels.
Vous pouvez imaginer ces pipelines comme des ascenseurs où chaque étage est une opération particulière dédiés à l’occupant de la cage (d’ascenseur, j'en vois qui ne suivent pas au fond, ttttss) ; devenant au passage une arme presque autant marketing qu’un atout décisif dans la course aux performances -on se rappelle de l’épisode GeForce Fx. Les pixels pipelines se voient alors multipliés dans les GPU, intégrant à la fois plus d’unités de calcul indépendants et polyvalents. Ben oui, ces couillons de programmeurs ont un peu de mal à suivre les évolutions technologiques et n’utilisent que des opérations simples alors que Nvidia développe des solutions optimisées pour traiter des opérations complexes, et pendant ce temps là c’est Ati qui se régale, produisant des puces plus efficaces sur les traitements "simples". Avec ces solutions, il subsiste un défaut majeur : les registres, où sont stockées les données temporaires en cours de traitement par le GPU, limités en largeur et longueur de bits, qui occupent plusieurs étages de traitement dans les pipelines faisant chuter sévèrement les performances.
Les architectures utilisées jusqu’auxGeForces de 7ème génération où aux Radeons 9000 reposent donc en gros sur un bon équilibre entre les différentes unités de traitement pour qu’un pixel passe des unes aux autres de la manière la plus fluide possible, donc sans latences. C’est là qu’intervient le concept d’architecture unifiée, consistant à utiliser une même unité de calcul pour n’importe quel traitement -qu’il soit de type pixel ou vertex par exemple. Au niveau pratique, les shader cores des radeons X1000 vont déjà dans ce sens et l’évolution vers l’architecture unifiée sera naturelle sur le R600. Chez Nvidia par contre, c’est table rase.
|
Un poil avant ?le Samsung 226BW en pratique? | Un peu plus tard ...La GDDR4 en production chez Samsung |