COMPTOIR
  
register

Vers des GPU multi-die chez NVIDIA ?

Alors que le hype est à son comble pour la RX Vega, l'alter ego d'AMD ne se repose pas sur ses lauriers : un papier signé de l'université de Texas, du Centre Supercomputing de Barcelone et de Nvidia vient de paraître, proposant un draft de GPU multi-die aux performances (théoriques) alléchantes. Le principe est simple : de la même manière qu'un SLI, regrouper plusieurs puces pour obtenir une carte plus puissante.

 

L'un des principaux intérêts se trouvera dans les rendements de production : usiner quatre puces plus petites au lieu d'une grande permet de diminuer le nombre de GPU HS en sortie de wafer. Contrairement au SLI, les modules GPU communiqueraient dans la puce de manière transparente, nul besoin donc de pilotes optimisées. D'après leurs travaux, un GPU modulaire serait quelque 26.8% plus rapide qu'un système multi-GPU de mêmes caractéristiques. Cette architecture n'est pas sans rappeler Ryzen / EPYC, qui a également de très bons rendements. Connaissant l'influence de l'Infinity Fabric sur ses performances, il ne reste qu'à espérer une meilleure gestion de la VRAM partagée sur ce type d'engin, traditionnellement là où le bât blesse sur les solutions multi-GPU.

 

nvidia mutli die

On coupe en quatre et on recommence !

 

La segmentation de la gamme serait également facilitée : on peut imaginer un demi-GPU composée de deux modules, et un GPU complet à quatre, sans pour autant modifier le design général. Ceci permettrait des chaines de production identiques pour toute une génération, ce qui diminue d'autant plus les coûts de production. Seule Mme Irma et sa boule de cristal peuvent prédire le temps entre un papier et sa réalisation technique (quand elle existe !), on enfile donc nos meilleurs gants de boxe pour prendre les pincettes de rigueur quant à une future date, mais il est toujours bon de voir que l'innovation continue dans ce secteur !

Un poil avant ?

Lawbreakers, un jeu pour tout le monde ?

Un peu plus tard ...

La QLC aussi endurante que la TLC : 1000 cycles d'écriture ?

Les 25 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Rondoudou, le Jeudi 06 Juillet 2017 à 08h31  
par Cristallix le Mercredi 05 Juillet 2017 à 22h17
Ah bah ça en même temps si une entreprise peut diminuer ses coûts sans avoir a faire baisser ses prix car ça se vend bien il y a pas de raison de se priver. Puis faut bien nourrir les actionnaires hein !
Tu as raison, faut savoir que cette espèce - l'actionnaire - est un animal très vorace, il ne mange jamais assez, j'aimerai pas être celui qui doive les nourrir (moins dangereux d'entrer dans une cage aux lions)
par Un ragoteur Gaulois de Nordrhein-Westfalen, le Mercredi 05 Juillet 2017 à 22h20  
par Tham le Mercredi 05 Juillet 2017 à 14h10
En 2000 ? Inmos le faisait déjà en 1986-87, que ce soit pour les CPU ou les cartes graphiques, et en plus à l'époque, on pensait déjà à faire les topologie de liaisons modulable à la volé suivant la calcul à effectuer (Tore, cylindre, Butterfly...)
sauf que concrètement ça a pas donné grand chose et 3Dfx était novateur par leur implémentation pour les gpu qui se prêtent bien a ce genre d'architecture concrètement aux cpu qui doivent traiter aussi bien des tâches séquentielle
par Cristallix, le Mercredi 05 Juillet 2017 à 22h17  
par Kesphin le Mercredi 05 Juillet 2017 à 19h46
Je sens venir les marketeux... 4 fois plus de GPU pour seulement 3X plus cher !
Il n'y a que le constructeur qui fera des économies.
Ah bah ça en même temps si une entreprise peut diminuer ses coûts sans avoir a faire baisser ses prix car ça se vend bien il y a pas de raison de se priver. Puis faut bien nourrir les actionnaires hein !
par Kesphin, le Mercredi 05 Juillet 2017 à 19h46  
Je sens venir les marketeux... 4 fois plus de GPU pour seulement 3X plus cher !
Il n'y a que le constructeur qui fera des économies.
par Un #ragoteur déconnecté de Provence-Alpes-Cote d'Azur, le Mercredi 05 Juillet 2017 à 19h42  
par Shenron67 le Mercredi 05 Juillet 2017 à 19h08
Ca devrait aussi permettre d'intégrer une partie moins perf mais très économe pour l'affichage du bureau (à la manière des soc ARM qui ont différentes familles de CPU).
Pour le coup, ça a déjà l'air d'être le cas... chez nVidia la "2D" (c'est de la 3D depuis Vista) ne consomme plus des masses et chez AMD la conso sans affichage est réduite au strict minimum (toujours élevé, mais le régulateur doit être maintenu, du coup pas trop possible de descendre à "0W"...)
par Shenron67, le Mercredi 05 Juillet 2017 à 19h08  
Ca devrait aussi permettre d'intégrer une partie moins perf mais très économe pour l'affichage du bureau (à la manière des soc ARM qui ont différentes familles de CPU).
par Tham, le Mercredi 05 Juillet 2017 à 14h10  
par Un ragoteur Gaulois de Nordrhein-Westfalen le Mercredi 05 Juillet 2017 à 13h41
_ 2000, Architecture révolutionnaire MODULAIRE avec le Voodoo Scalable Architecture VSA-100 -> 3Dfx 4500,
En 2000 ? Inmos le faisait déjà en 1986-87, que ce soit pour les CPU ou les cartes graphiques, et en plus à l'époque, on pensait déjà à faire les topologie de liaisons modulable à la volé suivant la calcul à effectuer (Tore, cylindre, Butterfly...)

par Un ragoteur Gaulois de Nordrhein-Westfalen, le Mercredi 05 Juillet 2017 à 13h41  
Oh mon dieu, la boucle est bouclée...
_ 1996, 3Dfx révolutionne le jeu avec le Voodoo 1 (sniff, que de souvenirs, j'avais du devenir eunuque pour l'acquérir)
_ 1998, Voodoo 2 (jamais eu, plus de gonades en stock)
_ 2000, Architecture révolutionnaire MODULAIRE avec le Voodoo Scalable Architecture VSA-100 -> 3Dfx 4500, 5500 et 6000!
_ 2000, Nvidia rachète 3Dfx, se goinfre de sa propriété intellectuelle mais jette tous ses chips
_ 2011 (1er avril), Nvidia profane la mémoire de 3Dfx en rigolant d'une pseudo Voodoo 590
_ 2017, Nvidia mange son chapeau en se rendant compte que 3Dfx avait 17 ans d'avance (mais on s'en fout c'est les brouzous qui comptent, pas l'art ou le talent)
par OKLMTRKL d'Ile-de-France, le Mercredi 05 Juillet 2017 à 12h37  
Concernant RX Vega perso je n'appellerais pas ça de la hype mais plutôt du bashing...mais bon après ce n'est que mon point de vue, à chacun sa perception des choses
par Un médecin des ragots embusqué, le Mercredi 05 Juillet 2017 à 12h07  
Le problème de ce type d'architecture, comme l'a d'ailleurs démontré Ryzen, c'est le lien entre les dies. Keller a sorti l'infinity fabric avec la complexité de la synchro avec la ram que l'on connait. Après, l'avantage, c'est la simplicité lié au design de la puce de base, qu'il suffit ensuite de multiplier pour gagner en performance.
par Deus, le Mercredi 05 Juillet 2017 à 11h11  
Dis donc, ca troue severe ca.

A quand les cartes graphiques 4 coeurs lol.
par Bali balo de Haute-Normandie, le Mercredi 05 Juillet 2017 à 11h02  
par Un ragoteur qui draille embusqué le Mercredi 05 Juillet 2017 à 10h44
AMD utilise ce type de techno pour relier cpu et gpu sur ses apu Ryzen
Nan ça c'est juste un concept technique, présenté à la presse histoire d'entretenir un peu la hype. Les APU n'auront pas de HCM et seront monolithiques.
Pour le fun, une photo du PDG AMD de 2006 tenant dans ses mains un CPU Phenom et un core2quad.