COMPTOIR
  
register

Intel Xe : les fans ont déjà un design de référence

Chez Intel, il faut croire qu'on n'aime pas faire comme tout le monde ! Alors que les cartes graphiques Xe sont prévues pour 2020 au plus tôt, la firme tease sans vergogne des rendus de cartes via son programme Odyssey. Si certains préfèrent le secret - et les seules informations qui fuitent ne sont que de l'ordre de la rumeur - les bleues optent pour une stratégie de communication à rebrousse-poil. Tellement à contre-courant qu'il ne s'agit même pas de rendus officiels, mais des simples fans-art réalisés par un design somme toute talentueux répondant au patronyme de Christiano Siqueira.

 

intel xe graphics rendu3 fan

Une première idée...

 

On retrouve deux vues d'artiste de cette nouvelle génération, celle ci-dessus qui avait déjà circulé sur le net il y a quelque mois, et un autre ci-dessous plus compact. Inutile de préciser que la présence de deux connecteurs d'alimentation ou d'un PCB réduit n'est absolument pas liée au TDP ou à la présence de HBM dans ces modèles puisqu'il s'agit de rendu de fan, mais ces images ont tout de même de quoi mettre l'eau à la bouche des gameurs.

 

intel xe graphics rendu3 fanintel xe graphics rendu3 fan

Pour celle-ci, il y a un furieux air de Fury, sans le système de refroidissement liquide

 

Rappelons cependant qu'Intel a annoncé une stratégie claire : frapper fort et sur tous les segments : on peut donc s'attendre à différentes déclinaisons pour le grand public, avec des consommations et puissances étalées. Mais trêve de rêverie, il va falloir encore s'armer de patience avant d'assister à la mise en rayon de cette concurrence nouvelle ! (Source : Tom's Hardware et HotHardware)

Un poil avant ?

Ces gros jeux qui se vendent comme des p'tits pains

Un peu plus tard ...

Bon plan • 15% sur les cartes mères Asus Z370 et Z390 chez LDLC

Les 19 ragots
Les ragots sont actuellement
zone limitée - permis de ragotage requisouverts aux ragoteurs logués
par Jemporte, le Mercredi 27 Mars 2019 à 00h26  
par BloodBrother le Mardi 26 Mars 2019 à 08h16
Si cela est silencieux et efficace; techniquement, c'est la meilleure Solution puisque la chaleur va directement en dehors du Boitier.
Absolument. Et puis on peut faire un système à blower surdimensionné et on peut attacher plus de soin au seul ventilateur présent (isolation acoustique, forme des pales, matériaux anti-poussière, double roulements à billes étanches et auto lubrifiés, etc. Sans oublier que le flux d'air va passer tout du long en refroidissant facilement tous les éléments de la carte. D'ailleurs les meilleures cartes dans le domaine pro sont comme ça (AMD et Nvidia). GPU au sweet spot avec un TDP pas délirant, circuits de qualité sur la carte, supportant des températures élevée, système blower étanche, avec cache en métal (pour une meilleure diffusion de la chaleur), le tout en mono-slot ou à la rigueur pour un GPU ultime en double slot. tant pis pour les 10% de perfs en plus si le GPU est poussé à son TDP max qui double la conso et le dégagement de chaleur.
par Jemporte, le Mardi 26 Mars 2019 à 23h00  
par Rondoudou le Mardi 26 Mars 2019 à 22h43
Jemporte,
tu as quoi comme preuve pour étayer tes dires sur le fait que AMD ne bosse pas ses GPU pour du gaming, se contant de l'orientation Pro' et le reste débrouillez-vous ?
Sans vouloir te vexer, c'est dans ta tête...
C'est dans les perfs. Meilleurs dans le compute, moins bons dans les jeux à taille de chip égale. Mais ça s'inverse ou s'égalise avec la gamme Turing de Nvidia (on le voit sur la GTX 1660 Ti). Ce GPU ne dépasse pas le GPU castré de la GTX 1070Ti, à taille utile identique, mais la 1660Ti est conçue et gravée dans un process plus évolué (la RX 590 d'AMD gravée mais pas conçue dans un process à peine plus évolué fait 10/15% de mieux que la RX 580 identique). Par contre sur Luxmark et le compute pur c'est une autre histoire où la GTX 1660Ti fait mieux que la GTX 1080 dans tous les tests.
En gros, est-ce que AMD peut faire un chip équivalent aux Nvidia gaming, sous GCN ? oui. Est-ce qu'ils y ont intérêt pour lâcher les perfs des usages Pro ? probablement pas, du moins ce n'est pas ce qu'ils font. Mais il semblerait que c'est ce que fait Navi à l'extrême (carrément nul en compute).
Est-ce que Nvidia peut faire un chip sous leur architecture actuelle, plus orienté pro en lâchant sur les perfs gaming : oui. C'est ce qu'ils font en partie avec Turing.
AMD ne se dépense actuellement pas pour les devs, notamment les devs jeu. Ils livrent des GPU pour les plateformes jeu, aux constructeurs de gérer le développement. Tout l'opposé de Nvidia.
Par contre leurs pilotes Pro ont dépassé en stabilité depuis 2/3 ans ceux de Nvidia, tout en étant très optimisés, et ça commence à se savoir. A GPU et hardware équivalent, un carte pro se vend 3x à 10x plus cher qu'une gaming.
par Rondoudou, le Mardi 26 Mars 2019 à 22h43  
Jemporte,
tu as quoi comme preuve pour étayer tes dires sur le fait que AMD ne bosse pas ses GPU pour du gaming, se contant de l'orientation Pro' et le reste débrouillez-vous ?
Sans vouloir te vexer, c'est dans ta tête...
par Jemporte, le Mardi 26 Mars 2019 à 22h31  
par Rondoudou le Mardi 26 Mars 2019 à 08h05
C'est cruel là !
Si c'était vraiment le cas, on aurait un paradoxe : on assisterait à la fois à la naissance & à la mort des GPU Intel
Comme je l'ai déjà dit, l'architecture GCN n'a rien de mauvais. D'ailleurs AMD la fait évoluer pour ça. C'est ce qu'on y met dedans et comment on l'oriente qui change tout (on va voir ça sur Navi), puis avec les pilotes appropriés (Nvidia adapte ses pilotes à chaque jeu et patche de jeu, pas AMD). AMD fait des cartes universelles pro/gaming, mais plutôt avec un réglage hardware Pro (maximum d'unités de calcul par unité de surface du chip) parce que c'est le marché qu'ils rêvent de conquérir contre Nvidia. Nvidia a une hardware assez proche d'AMD depuis Maxwell, mais règle son hardware pour optimiser le gaming (sous Pascal et Maxwell mais pas les RTX plus orientées calcul). AMD met très peu de moyens dans ses GPU pour PC par rapport à Nvidia. Il fait peu de modèles de GPU, en sort plus rarement que Nvidia. Pas de support pour les devs, que Nvidia va jusqu'à former par paquets. Et du coup AMD vend ça moins cher.
Si AMD avait les moyens d'Intel, avec son architecture GCN, il ferait jeu égal ou dépasserait Nvidia (parce qu'il est aussi dans les CPU). C'est probablement ce que va faire Intel en utilisant une architecture ressemblant à celle d'AMD (ils ont quasiment repris une équipe AMD et ils sont pas là pour réécrire l'histoire mais pour la continuer au plus vite à partir de ce qu'ils savent faire). Au pire, Intel paie un gros chèque à AMD pour reprendre la droits d'utiliser son architecture comme pour les accords sur le X86 64bits. Avec possibilité de piocher dans les évolutions de l'autre.
par BloodBrother, le Mardi 26 Mars 2019 à 08h16  
par pascal2lille le Lundi 25 Mars 2019 à 21h53
un blower pour le système de ventilation, mouais bof
Si cela est silencieux et efficace; techniquement, c'est la meilleure Solution puisque la chaleur va directement en dehors du Boitier.
par Rondoudou, le Mardi 26 Mars 2019 à 08h05  
par Jemporte le Lundi 25 Mars 2019 à 22h56
Le leak du futur GPU à architecture GCN d'Intel.
C'est cruel là !
Si c'était vraiment le cas, on aurait un paradoxe : on assisterait à la fois à la naissance & à la mort des GPU Intel
par lord Varices, le Mardi 26 Mars 2019 à 07h28  
La news, c'est donc qu'Intel a des fan qui fantasment sur leur GPU, ça doit être les mêmes qui pensent que Star Citizen sortira cette année.
par Nicolas D., le Mardi 26 Mars 2019 à 03h23  
par Jemporte le Lundi 25 Mars 2019 à 22h56
Le leak du futur GPU à architecture GCN d'Intel.
Rhooo t'y vas un peu fort
par Fran, le Lundi 25 Mars 2019 à 23h19  
roalala, le rêve : une config full Intel
par Jemporte, le Lundi 25 Mars 2019 à 22h56  
Le leak du futur GPU à architecture GCN d'Intel.
par pascal2lille, le Lundi 25 Mars 2019 à 21h53  
un blower pour le système de ventilation, mouais bof
par Matthieu S., le Lundi 25 Mars 2019 à 21h53  
Tant que ces LEDs sont RGB et pas juste "restreintes" à faire du bleu Intel, ça me va