COMPTOIR
  
register

GPU Entry Intel, premières informations de la voie choisie

Quand Raja Koduri, alors patron du Radeon Technology Group, s'est mis en retrait à la rentrée 2017, clairement il y avait anguille sous roche. Et lorsqu'en fin d'année il a officialisé son arrivée chez Intel, peu furent surpris, un tel bonhomme ne peut que rebondir et tant qu'à faire dans une boîte qui lui donne les coudées franches. Nvidia étant au point sur tous les segments et pas dans la nécessité, le choix d'Intel était tout indiqué. A vrai dire, ce dernier se vautre depuis plus de 10 ans sur ses projets de GPU. On se souvient du mémorable i740, ou du fantastique projet Larabee qui a dû se perdre dans le désert.

 

Et pourtant, les puces graphiques d'entrée de gamme Intel, celles intégrées aux CPU, sont poussives comme pas possible alors que la concurrence AMD et Nvidia lui met une volée de bois vert en termes de puissance brute. C'est dans cet objectif que Koduri a été employé : développer du GPU Entry (entrée de gamme donc) efficace et autrement plus testicouillu que les sinistres HD Graphics exonérés d'eDRAM. Lors du International Solid-State Circuit Conference que l'on nommera ISSCC pour des raisons évidentes de commodité, Intel a dévoilé l'ébauche des travaux de Koduri, un prototype 14nm.

 

intel igpu prototype 2018

 

Intel a donc repensé ses EU acronyme de Unités d'Exécution, et a pensé une architecture similaire dans sa philosophie à celle rencontrée chez AMD et Nvidia : n'activer les EU qu'en cas de besoin de patate, moduler la puissance en fonction de la demande, ce qui est nouveau chez Intel même si les iGPU ont une fréquence de base et un turbo. Il y en a 18 et elles peuvent fonctionner à 400 MHz, de génération Gen9LP, on rappelle que c'est un prototype. Il y avait 24EU dans l'iGPU de Broadwell C à titre d'exemple.

 

intel igpu prototype 2018 schema

 

La puce mesure 64mm² soit un carré de 8mm de côté, et embarque 1.542 milliards de transistors. Oui, ça ne fait pas beaucoup, mais c'est un début et surtout ça ne fait pas rêver, ce n'est pas une révolution mais une évolution. On verra à l'avenir comment le géant va faire fructifier cette piste, d'unités de calculs disposant de mémoire cache interfacées au reste via un pont PCIe. Le plus dur au final sera la mise au point des pilotes, là où Intel s'est toujours cassé les dents. (Source PC Watch)

Un poil avant ?

Vega et Polaris bientôt capables de lire du stream 4k HDR sans perte ?

Un peu plus tard ...

Un SSD Samsung énorme sur tous les aspects

Les 16 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Thibaut G., le Vendredi 23 Février 2018 à 17h45  
stop les insultes ben et nuts sinon ca va couper.
par Un #ragoteur déconnecté embusqué, le Vendredi 23 Février 2018 à 17h03  
par Un ragoteur sans nom embusqué, le Vendredi 23 Février 2018 à 14h31
T'as surtout l'air de jouer au c** à moins que ce ne soit naturel...
Mais tout à fait!

Le "contrôleur mémoire" est un élément qui traverse toutes les "couches", il commence au niveau du prefetcher des unités d'exécution pour finir à l'interface RAM, et dans le cas de Vega, il va même au-delà puisqu'il permet une gestion virtualisée nativement. Ici c'est manifestement la même chose, il n'y a juste pas de "gros" cache car ça n'aurait pas grand intérêt vu la puissance. L'eDRAM jouait ce rôle, mais vu le coût d'un tel die, pourtant déjà largement moins cher que de la SRAM... bah on comprend qu'Intel ait opté pour la HBM sur la dernière génération.
par Un ragoteur sans nom embusqué, le Vendredi 23 Février 2018 à 14h31  
par Un #ragoteur déconnecté embusqué, le Jeudi 22 Février 2018 à 21h46
T'as surtout l'air de faire un joli amalgame entre contrôleur mémoire et interface DRAM.
T'as surtout l'air de jouer au c** à moins que ce ne soit naturel...
par Un #ragoteur déconnecté embusqué, le Jeudi 22 Février 2018 à 21h46  
par Un ragoteur sans nom embusqué, le Jeudi 22 Février 2018 à 21h07
T'as pas l'air d'être bien dégourdi...

Il y a bien 2x2 Mio de cache mais aucun contrôleur mémoire, c'est donc nécessairement un GPU avec de la mémoire vive partagée.
T'as surtout l'air de faire un joli amalgame entre contrôleur mémoire et interface DRAM.
par Un ragoteur sans nom embusqué, le Jeudi 22 Février 2018 à 21h07  
par Un #ragoteur déconnecté embusqué, le Jeudi 22 Février 2018 à 19h58
Y'a forcément un contrôleur mémoire vu qu'il y a de la mémoire dedans (2x 2Mo), l'approche semble très similaire à celle de ce bon gros Vega et don "HBCC" alias "HyperMemory v12", l'échelle semblant par contre bien faiblarde.
T'as pas l'air d'être bien dégourdi...

Il y a bien 2x2 Mio de cache mais aucun contrôleur mémoire, c'est donc nécessairement un GPU avec de la mémoire vive partagée.
par Un #ragoteur déconnecté embusqué, le Jeudi 22 Février 2018 à 19h58  
par Un ragoteur sans nom embusqué, le Mercredi 21 Février 2018 à 14h18
Et comment expliques-tu l'absence de contrôleur mémoire sur le schéma bloc?
Y'a forcément un contrôleur mémoire vu qu'il y a de la mémoire dedans (2x 2Mo), l'approche semble très similaire à celle de ce bon gros Vega et don "HBCC" alias "HyperMemory v12", l'échelle semblant par contre bien faiblarde.
par Arkane, le Mercredi 21 Février 2018 à 21h41  
par novaescorpion, le Mardi 20 Février 2018 à 16h02
Larrabee, c'est ou dites ?

(Perdu dans le désert ma foi !)
C'est par là, mec !
par Un ragoteur sans nom embusqué, le Mercredi 21 Février 2018 à 14h29  
par Un adepte de Godwin embusqué, le Mercredi 21 Février 2018 à 13h14
Le FPGA sera inclus dans la version finale ? Ou il a juste été utilisé pour """programmer""" un bus ?
Il est très probable que le pont PCI-Express implémenté sur FPGA soit intégré à l'ASIC mais que pour gagner du temps de conception, les ingénieurs aient employé un FPGA en profitant d'une bibliothèque de composants standards.
par Un ragoteur sans nom embusqué, le Mercredi 21 Février 2018 à 14h18  
par cabou83, le Mardi 20 Février 2018 à 18h19
On parle ici de GPU dédier (en pcie) une vraie carte graphique, pas un iGPU.
Et comment expliques-tu l'absence de contrôleur mémoire sur le schéma bloc?
par Un adepte de Godwin embusqué, le Mercredi 21 Février 2018 à 13h14  
Le FPGA sera inclus dans la version finale ? Ou il a juste été utilisé pour """programmer""" un bus ?
par Thusla embusqué, le Mercredi 21 Février 2018 à 12h26  
par cabou83, le Mardi 20 Février 2018 à 18h19
On parle ici de GPU dédier (en pcie) une vraie carte graphique, pas un iGPU.
Ca sera peut être aussi pour un die sur le même package que le cpu a la manière de "l'hybride" cpu Intel + gpu AMD
par cabou83, le Mardi 20 Février 2018 à 18h19  
par Xorg, le Mardi 20 Février 2018 à 17h22
Les Iris Pro ne sont pas de bons iGPU ? C'est vrai que le prix pique.
Je ne comprends plus trop l'objectif d'Intel avec ses iGPU... Le but n'est-il pas d'avoir un affichage correct pour de la bureautique ?
Le problème des iGPUs, ça reste la RAM ; et l'eDRAM ne rivalise peut-être pas avec la GDDR5(X)/HBM2.
On parle ici de GPU dédier (en pcie) une vraie carte graphique, pas un iGPU.