COMPTOIR
  
register

L'Iris Xe Max (aka DG1) d'Intel geekbenchée, coincée entre RX 550X et MX 330 ?

L'autre jour, en marge de l'annonce des résultats d'Intel, nous avions également abordé le sujet des GPU Xe, précisément que l'Irix Xe Max - surtout connue en tant que DG1 - est en chemin vers les OEM et que la DG2 se trouve dans les labos d'Intel. Pour se replonger en détail dans les tréfonds de l'aventure Xe d'Intel, il convient également de revisiter notre résumé complet de l'Architecture Day 2020 du fondeur. Forcément, avec l'arrivée des premières cartes DG1 chez les assembleurs, il fallait s'en douter que les premiers benchs n'allaient pas tarder à fleurir, c'est tout à fait normal. Ainsi, l'Iris Xe Max s'est payée ses deux premières tournées sous Geekbench 5 - pas le benchmark le plus représentatif d'un usage normal, mais ça permet un peu de situer le machin, surtout qu'Intel est resté assez muet en public sur le sujet des performances, alors que la carte marque tout de même le "grand" retour d'Intel sur le marché du GPU dédié.

 

Sur le plan technique, l'Iris Xe Max embarque 96 unités d'exécution, soit 768 shader cores. Précédemment, le GPU avait déjà été flashé en présence de 3 Go de GDDR6 et 4 Go de LPDDR4X, ce qui sous-entend qu'il pourrait être configuré aussi bien avec l'un qu'avec l'autre. La fréquence maximale observée lors des passes Geekbench a été de 1,5 GHz, mais les détails de sa configuration exacte base/boost sont encore flou, la carte avait aussi été flashée à 1,55 GHz (potentiellement un overclocking manuel). Pour les scores, l'Iris Xe Max a donc obtenu 11885 points, devançant à peine la GeForce MX 330 (384 unités de calcul, 1,594 Ghz) avec 11162 points et derrière la Radeon RX 550X (512 ou 640 unités de calcul, 1,287 GHz) avec 12598 points, tandis que la MX 350 (640 unités, 1,468 GHz) en a 13832.

 

 

Bien entendu, les résultats sont à prendre avec des pincettes, l'engin finalisé pourra très bien faire pire, ou mieux, et les pilotes aussi ont leur rôle à jouer. Le positionnement affiché ici n'est pas tellement choquant, l'intérêt initial de la DG1 n'étant probablement pas tant de lutter uniquement sur le plan des performances, mais potentiellement pour permettre à Intel de cultiver un nouvel écosystème mobile à commencer avec Tiger Lake, et pourquoi pas promouvoir un combo multiGPU Xe avec sa puce graphique intégrée (qui embarque également 96 EUs), comme une fuite précédente l'avait déjà suggéré. On verra bien, et surtout, il faudra se rappeler que ce n'est que le début, la marge de progression sera logiquement assez conséquente. Les premières machines portables Tiger Lake avec Iris Xe Max sont attendues pour décembre, l'épreuve du feu n'est donc plus très loin !

 

logo intel iris xe max

Un poil avant ?

PayPal et les cryptomonnaies, un pari pour la démocratisation de l'argent numérique ?

Un peu plus tard ...

MODDING • HARDWARE31 - GLACIER

Les 10 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un #ragoteur connecté en Île-de-France, le Lundi 01 Février 2021 à 10h27  
Si le dGPU contient autant d'unités d'exécutions que le iGPU qui l'accompagne, et qu'en plus il peut être configuré pour utiliser la RAM au lieu d'avoir sa mémoire dédiée, j'ai du mal à voir l'intérêt de la chose.

Si le dGPU utilise de la mémoire dédiée et qu'il dispose d'un circuit de refroidissement distinct du CPU (rarement le cas sur les PC qui ne sont pas orientés "gaming" ), j'imagine qu'il peut pousser les performances un peu plus loin... mais est-ce que ça vaut vraiment le coup en terme de coûts de la puce de silicium, du bordel sur la carte-mère, du circuit de refroidissement supplémentaire, etc. , pour grapiller quelques pourcentages de performance ? Sauf si la bande passante de la mémoire pose problème j'ai l'impression qu'il vaudrait mieux utiliser ces coûts pour améliorer le refroidissement du CPU+iGPU, et en bonus ça bénéficiera aussi aux travaux purement CPU.
par Un #ragoteur connecté en Île-de-France, le Dimanche 17 Janvier 2021 à 09h58  
Si le dGPU contient autant d'unités d'exécutions que le iGPU qui l'accompagne, et qu'en plus il peut être configuré pour utiliser la RAM au lieu d'avoir sa mémoire dédiée, j'ai du mal à voir l'intérêt de la chose.

Si le dGPU utilise de la mémoire dédiée et qu'il dispose d'un circuit de refroidissement distinct du CPU (rarement le cas sur les PC qui ne sont pas orientés "gaming" ), j'imagine qu'il peut pousser les performances un peu plus loin... mais est-ce que ça vaut vraiment le coup en terme de coûts de la puce de silicium, du bordel sur la carte-mère, du circuit de refroidissement supplémentaire, etc. , pour grapiller quelques pourcentages de performance ? Sauf si la bande passante de la mémoire pose problème j'ai l'impression qu'il vaudrait mieux utiliser ces coûts pour améliorer le refroidissement du CPU+iGPU, et en bonus ça bénéficiera aussi aux travaux purement CPU.
par Jemporte, le Mardi 27 Octobre 2020 à 09h02  
par lord Varices, le Lundi 26 Octobre 2020 à 12h26
J'imagine que cette première référence, c'est pour se faire la main, ce qui n'est pas con, vu que c'est pour de l'entrée de gamme, si ça fait un four ça se verra pas trop.

Bon courage à Intel pour les drivers s'il veulent faire marcher de concert leur IGP avec ce truc, et j'ai pas souvenir que les drivers c'était leur fort sur le peu de CG qu'ils ont sortis.
Donc en gros des perfs de GTX 1050 non Ti, un TDP de 75W en bureautique et moins en intégré portable ou c'est plus haut de gamme. Intérêt à ne pas dépasser les 75W de TDP et les 100 euros, et avec des version low profile, s'ils veulent occuper un marché.

Au niveau de la gravure, j'ai cru comprendre que c'était du Intel 10nm.
par Jemporte, le Mardi 27 Octobre 2020 à 08h57  
par Darth Moule, le Lundi 26 Octobre 2020 à 13h19
Ce que je remarque à chaque leak sur les cartes intel, c'est l'utilisation de bench sur open CL. C'est plus la partie calcul que graphique qui semble être mise en avant et ça me fait un peu sourciller vue que tout le monde semble attendre cette carte sur ses perfs graphiques
Pour une carte estampillée Raja, je m'attends plus à une carte fortement plus intéressante pour les utilisations pro que pour le gaming.
après, le DG2 semble plus orienté "gaming" (ou en tous cas avoir une déclinaison pour).
Bref je suis pas ultra hypé et plutôt sceptique, mais j'attends de voir ce que ça donne et surtout les ratio perf/prix. Si ça permet aux entreprises d'arrêter d'acheter des brouettes chez lenovo avec des i5 55xxU et nous faire passer ça pour des PC boostés, ça serait déjà pas mal
En fait même les iGPU d'Intel avant Raja sont plutôt bons en compute vs partie graphique.
Et pour ce qui est de la mise en vant de la partie compute, il faut se rappeler de la spécificité d'Intel qui fonctionne comme ça, car il apporte des outils de développement élaborés ouverts, ce que AMD fait peu, et que Nvidia fait de façon propriétaire fermée.
par Darth Moule, le Lundi 26 Octobre 2020 à 13h19  
Ce que je remarque à chaque leak sur les cartes intel, c'est l'utilisation de bench sur open CL. C'est plus la partie calcul que graphique qui semble être mise en avant et ça me fait un peu sourciller vue que tout le monde semble attendre cette carte sur ses perfs graphiques
Pour une carte estampillée Raja, je m'attends plus à une carte fortement plus intéressante pour les utilisations pro que pour le gaming.
après, le DG2 semble plus orienté "gaming" (ou en tous cas avoir une déclinaison pour).
Bref je suis pas ultra hypé et plutôt sceptique, mais j'attends de voir ce que ça donne et surtout les ratio perf/prix. Si ça permet aux entreprises d'arrêter d'acheter des brouettes chez lenovo avec des i5 55xxU et nous faire passer ça pour des PC boostés, ça serait déjà pas mal
par lord Varices, le Lundi 26 Octobre 2020 à 12h26  
J'imagine que cette première référence, c'est pour se faire la main, ce qui n'est pas con, vu que c'est pour de l'entrée de gamme, si ça fait un four ça se verra pas trop.

Bon courage à Intel pour les drivers s'il veulent faire marcher de concert leur IGP avec ce truc, et j'ai pas souvenir que les drivers c'était leur fort sur le peu de CG qu'ils ont sortis.
par Toyoda en Île-de-France, le Lundi 26 Octobre 2020 à 11h59  
Même nombre d'unités que les IGP et utilise aussi de la DDR : possible recyclage d'une puce Lac du Tigre ?

A part faire rêver bob du marketing, avec son Iris Pro Max Dual-Graphics Whatever, à quoi ça sert ?

Le combo IGP+GPU, Amd avait essayé au début des APU, c'était pas fou de mémoire.
par Un ragoteur RGB en Île-de-France, le Lundi 26 Octobre 2020 à 11h41  
par The manchot pingouin de Bretagne, le Lundi 26 Octobre 2020 à 09h38
Le score ok, mais la conso qui permet ce résultat esty aussi sinon plus déterminant pour un portable
je préfère avoir un score léger moins avec une conso bien plus basse que quelques pouillèmes de score en plus pour une grosse conso sur mon portable.
Rapport conso-score-prix pour le moment, un 4700u ou un 4800u (quasi introuvable comme les 3080) sont pour le moment indétrônables
C'est pas que cela n'a pas de sens mais en général sous windows le PC portable utilise le GPU qui intégré au CPU et qui par définition ne doit pas consommer grand chose pour respecter l'enveloppe thermique du CPU. Aprés en jeux ça bascule sur un GPU externe plus nerveux et donc consommant davantage !

Aprés tu peux comparer un processeur AMD avec son équivalent INTEL ( avec GPU intégré ) et voir qui consomme le plus en fonction de son IPC totale.
par The manchot pingouin de Bretagne, le Lundi 26 Octobre 2020 à 09h38  
Le score ok, mais la conso qui permet ce résultat esty aussi sinon plus déterminant pour un portable
je préfère avoir un score léger moins avec une conso bien plus basse que quelques pouillèmes de score en plus pour une grosse conso sur mon portable.
Rapport conso-score-prix pour le moment, un 4700u ou un 4800u (quasi introuvable comme les 3080) sont pour le moment indétrônables
par Un #ragoteur connecté du Centre-Val de Loire, le Lundi 26 Octobre 2020 à 09h11  
Si le dGPU contient autant d'unités d'exécutions que le iGPU qui l'accompagne, et qu'en plus il peut être configuré pour utiliser la RAM au lieu d'avoir sa mémoire dédiée, j'ai du mal à voir l'intérêt de la chose.

Si le dGPU utilise de la mémoire dédiée et qu'il dispose d'un circuit de refroidissement distinct du CPU (rarement le cas sur les PC qui ne sont pas orientés "gaming" ), j'imagine qu'il peut pousser les performances un peu plus loin... mais est-ce que ça vaut vraiment le coup en terme de coûts de la puce de silicium, du bordel sur la carte-mère, du circuit de refroidissement supplémentaire, etc. , pour grapiller quelques pourcentages de performance ? Sauf si la bande passante de la mémoire pose problème j'ai l'impression qu'il vaudrait mieux utiliser ces coûts pour améliorer le refroidissement du CPU+iGPU, et en bonus ça bénéficiera aussi aux travaux purement CPU.