COMPTOIR
  
register

Intel pourrait sortir de très gros GPU de 500 W

Les informations sur les prochains GPU bleus fusent de plus en plus sur le net, mais cette fois-ci ce sera un leak provenant de la documentation interne de l'entreprise. Si la dernière fois nous avons eu le droit à des suspicions de la présence d'un module de ray tracing en version hardware, le site Digitaltrends a publié des informations sur toutes la gamme présumée du fabricant, qui révèle les modèles prévus pour les professionnels mais aussi pour les particuliers. Et il n'y a pas de quoi être déçu, car au-delà des GPU à la consommation plutôt classique, nous avons le droit à une version serveur plutôt gourmande : le TDP est estimé entre 400 et 500 Watts. À titre de comparaison, la Tesla V100 de NVIDIA est donnée pour un TDP de 300 W.

 

Le point le plus intéressant dans cette histoire, c'est de remarquer comment Intel construit ces fameux GPU. Le fabricant reprend les méthodes employées sur les Ryzen, en développant ses plus gros modèles sur une architecture à chiplet, ce qui permet d'obtenir des GPU plus puissants, mais à la consommation surprenante. Ce genre de technique permet aussi de réduire le coût de fabrication des plus gros modèles, ce qui peut être intéressant sur celui prévu à 300 W. Certes, cela ne donnera pas les cartes graphiques les plus efficientes, mais cela permettra probablement de ne pas se laisser distancer dans la course à qui est le plus performant sur le marché en 2020. (source : Digitaltrends)

 

intel ats platform specs

Un poil avant ?

De la RAM à ne plus quoi savoir en faire chez G.Skill, mais de la bonne !

Un peu plus tard ...

Le prince d'Euphoramédé chez Techpowerup

Les 28 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Une ragoteuse à forte poitrine en Île-de-France, le Mercredi 12 Février 2020 à 00h27  
par Un ragoteur blond en Île-de-France, le Mardi 11 Février 2020 à 20h25
Sauf que Arcturus n'est pas un GPU graphique. Il ne fait que du compute, utilise de la RAM HBM2. Tout pour ne pas consommer. A comparer aux utilisation pour miner où les GPU en usage max consomment nettement moins que les TDP des cartes graphiques en usage graphique max.
Mais attention, il y aura aussi un GPU Ampère en face, sans qu'on sache si il sera graphique et il sera 1.5x plus puissant que la MI100 en FP64 (et probablement le reste aussi).
Si Intel colle niveau perfs à ces GPU mais consomme 500W, ce sera déjà une prouesse pour Intel.
Et ça ne change rien, le MI60 en 7nm, 4096 shaders, 13.2G de trans sur 331mm2 vs cette MI 100 c'est 8192 shaders, 19G de trans et 400mm2 en 7nm+.
C'est toujours impossible alors que c'est supposément du GCN 6.

En mining, les GPUs consomment à mort et crament hein.

Par contre Ampère 1.5x potentiellement plus puissant que ce MI100 en compute ? Tu sors ça d'où gros ?

Intel, bah c'est Intel. Ca consomme et chauffe tellement que c'est comme avoir un réacteur nucléaire comme chauffage.
par Un ragoteur Gaulois en Île-de-France, le Mardi 11 Février 2020 à 21h45  
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 12h24
Les GPUs HDG-THDG consomment de 250W à 300W.
Il y a une raison à ça : les alims et les cartes mères ont une configuration assez standard jusqu'à 375W d'alim, ce qui correspond soit à des GPU légèrement OC soit à des pics de conso. Il faut savoir qu'au-delà, il faut ajouter des prises et avoir de très grosses alim déjà en mono-GPU et que la carte graphique va chauffer et prendre de la place (probablement 3 slots. En général de telles configs sont dédiées compute et donc dans ce cas on peut aligner les GPU sur port PCIe.
Une exception à ça : les cartes graphiques avec port PCI propriétaire du Mac Pro avec dual Vega 20 qui doivent demander du jus (surtout si OC). On peut imaginer que le GPU Intel c'est un peu ça. J'imagine qu'elles iront sur des serveurs de toute manière et absolument pas pour jouer.
par Un ragoteur blond en Île-de-France, le Mardi 11 Février 2020 à 20h25  
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 15h57
200W pour les 8192 shaders du MI 100 c'est impossible, même en 5nm.

Pour le goûter, vu qu'on est sur CDH, les trois couleurs seront marron, blanc et rouge
Donc éclatez-vous sans moi, ça ira.
Sauf que Arcturus n'est pas un GPU graphique. Il ne fait que du compute, utilise de la RAM HBM2. Tout pour ne pas consommer. A comparer aux utilisation pour miner où les GPU en usage max consomment nettement moins que les TDP des cartes graphiques en usage graphique max.
Mais attention, il y aura aussi un GPU Ampère en face, sans qu'on sache si il sera graphique et il sera 1.5x plus puissant que la MI100 en FP64 (et probablement le reste aussi).
Si Intel colle niveau perfs à ces GPU mais consomme 500W, ce sera déjà une prouesse pour Intel.
par dfd, le Mardi 11 Février 2020 à 17h40  
Intel, 500W : On approche des perfs de la GTX 1050 Ti là, non ? J'ai bon ?
par Un Skywalker qui ragotera embusqué, le Mardi 11 Février 2020 à 16h08  
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 15h57
200W pour les 8192 shaders du MI 100 c'est impossible, même en 5nm.

Pour le goûter, vu qu'on est sur CDH, les trois couleurs seront marron, blanc et rouge
Donc éclatez-vous sans moi, ça ira.
Légende comme les licornes, impossible au fréquence annoncé on est d'accord.
Il est ou mon tire bouchon?
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 15h57  
par Un Skywalker qui ragotera embusqué, le Mardi 11 Février 2020 à 15h42

Watt/perf de quelle coté la balance sera le plus bénéfique on verra.+
Le 7nm permet aux cartes AMD de resté dans la norme 300w avec ses cartes les plus puissantes MI50/60 et le futur monstre MI100 200w selon la légende.

Avec la https://www.techpowerup.com/gpu-specs/xe-arctic-sound.c3503 Intel revient sur la MI60 avec son 10nm mais 500w

Par contre on va gouté? après on joue au jeux des trois couleurs
200W pour les 8192 shaders du MI 100 c'est impossible, même en 5nm.

Pour le goûter, vu qu'on est sur CDH, les trois couleurs seront marron, blanc et rouge
Donc éclatez-vous sans moi, ça ira.
par Un Skywalker qui ragotera embusqué, le Mardi 11 Février 2020 à 15h42  

Watt/perf de quelle coté la balance sera le plus bénéfique on verra.+
Le 7nm permet aux cartes AMD de resté dans la norme 300w avec ses cartes les plus puissantes MI50/60 et le futur monstre MI100 200w selon la légende.

Avec la https://www.techpowerup.com/gpu-specs/xe-arctic-sound.c3503 Intel revient sur la MI60 avec son 10nm mais 500w

Par contre on va gouté? après on joue au jeux des trois couleurs
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 13h32  
par Guillaume L., le Mardi 11 Février 2020 à 12h45
Je vais rajouter une petite précision : on parle ici pour les modèles de 300 et 400/500 W de GPU à chiplet, autrement dit c'est un doublement pur du nombre d'unités sur le die final (déjà dit dans la news au passage )

Donc ce n'est pas vraiment un GPU de 300 W, mais plutôt de 2x150 W au final, si ça paraît subtil il ne faudrait pas confondre cette méthode avec un boost d'horloge.
Ben justement, c'est parce que c'est comme un Threadripper qu'on considère toujours comme un CPU unique qu'un bi-Threadripper vu que c'est dans le même package (limites TDP, etc).
Enfin, ce GPU à 500W c'est pas une Titan Z ou une R9 295X2 quoi.

Après, les 500W on les considérait pas forcément comme lié à un boost vu que le matos serveur préfère en général plus de cores/shaders..
par pascal2lille, le Mardi 11 Février 2020 à 12h39
je sais bien, j'ai une 1080 Ti qui consomme 250 W mais je suis sur qu'on peut faire mieux.
S'il y a une évolution au temps qu'elle soit bénéfique au niveau énergétique que performance.
Tu es un des rares gars que j'ai vu qui s'occupe véritablement de la consommation électrique.
par Guillaume L., le Mardi 11 Février 2020 à 12h45  
Je vais rajouter une petite précision : on parle ici pour les modèles de 300 et 400/500 W de GPU à chiplet, autrement dit c'est un doublement pur du nombre d'unités sur le die final (déjà dit dans la news au passage )

Donc ce n'est pas vraiment un GPU de 300 W, mais plutôt de 2x150 W au final, si ça paraît subtil il ne faudrait pas confondre cette méthode avec un boost d'horloge.
par pascal2lille, le Mardi 11 Février 2020 à 12h39  
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 12h24
Les GPUs HDG-THDG consomment de 250W à 300W.
je sais bien, j'ai une 1080 Ti qui consomme 250 W mais je suis sur qu'on peut faire mieux.
S'il y a une évolution au temps qu'elle soit bénéfique au niveau énergétique que performance.
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 12h37  
Suite:

Sauf qu'en serveur, atteindre 500W pièce c'est pas du tout commun non plus sahant que la norme étant plutôt 300W.

Et niveau disciples, on a partout sur le net plus de Nvidia et d'Intel que d'AMD. On se demande qui est le plus à genoux.

Bref, deux poids, deux mesures.
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Mardi 11 Février 2020 à 10h22
Oué t'inquiète pas, je te parle depuis ma 1070ti J'ai pas d'action chez AMD, par contre tu es plutot bon pour rabaisser les gens.

Sauf que ce que je voulais dire (et serveur ou non, la planete te remerciera pour ça), c'est que les constructeurs essaient de réduire les conso, et là Intel arrive avec un futur GPU donné pour 500W. Si le rapport perfo/W est bon pourquoi pas, sinon ça n'a aucun intérêt de faire ça à cette époque.
La forme n'a aucun intérêt sur le fond (à propos de ta GTX 1070 Ti).

Sinon oui, vu qu'on sait déjà qu'Intel est tout sauf bon dans ce domaine. C'est plutôt très probable que ce futur GPU dont l'architecture semble bonne pour le calcul (les bases ont de très fortes chances d'être du Vega à peine modifié ) n'arrivera pas à la cheville de ses concurrents pour demander autant de watts.

A ce jour, je n'ai vu qu'un seul GPU consommer autant: La R9 295X2 avec ses 550W.

D'ailleurs, si AMD l'a fait en 12V, pourquoi celui d'Intel aurait besoin de 48V ??
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 11 Février 2020 à 12h24  
par pascal2lille, le Mardi 11 Février 2020 à 07h08
Pas plus de 200 W en TDP sinon rien. Un TDP 500 W sérieux ?
Les GPUs HDG-THDG consomment de 250W à 300W.
par Un hardeur des ragots du Centre-Val de Loire, le Mardi 11 Février 2020 à 07h34
c'est facile de troller comme des idiot et de se plaindre quand on y connait rien.

faut savoir ce que l'on veut et puis vous n'etes pas obliges d'acheter si ca ne vous convient pas...

on dirait des gosses.
Ben si tu connais mieux, argumentes plutôt que de le regarder d'en haut non ?

Après il a pas tort, Intel est devenu celui qui consomme le plus et chauffe comme pas possible:
- CPU à 800W overclocké ? Check. (même le FX 9590 overclocké consomme deux fois moins)
- GPU à 500W ? Check. ( le seul cas où ça passe, c'est quand c'est en dual-GPU).
par Guillaume L., le Mardi 11 Février 2020 à 08h38
Ah, j'aurais dû venir plus tôt pour être le premier.

Forcément 48V, ça ne pouvait clairement pas être du matos conventionnel.
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Mardi 11 Février 2020 à 09h11
AMD s'est bien fait basher pour avoir sorti des cartes plutôt gourmandes (mais loin des 500W), et là pour le coup, je suis certains que les fanboys Intel diront "ceci est une révolution"
Exact.
par Un ragoteur des bas prix en Provence-Alpes-Côte d'Azur, le Mardi 11 Février 2020 à 09h51
Pas forcément, quand t'as une clim digne de l'Everest et des turbines de parkings, ça passe. Le WC c'est beaucoup moins fiable dans le temps.