COMPTOIR
  
register

AMD de retour sur le segment des GPU high end ?

Il faut le dire, les RX Vega ont laissé une impression mitigée face à la concurrence avec cette incapacité chronique à venir chatouiller le flagship du concurrent. Pourtant il y a eu débauche de technologie avec les Rapid Packed Math, la HBM2, mais hélas un GPU gros comme un GP102, qui pompe, des coûts élevés de fabrication pour tailler le PCB avec un étage d'alimentation aux exigences électriques de Vega, un refroidisseur adapté et encore la bonne vieille archi GCN maintes fois exploitée depuis 2012. Le fait est que les RX Vega rayonnent dans le milieu pro, mais l'aura n'est pas la même qu'avec un succès dans le milieu gaming où le marché est plus conséquent. AMD a bien conscience de cela, et a vu avec les Turing, une génération creuser encore plus le fossé avec son flagship la RX Vega 64.

 

On a beau se dire qu'AMD ne vise plus le high end gaming, ça ne semble pas satisfaire du tout Lisa Su. On ne sait pas trop ce qui se trame réellement, Vega 7nm pour les pros et Navi pour les joueurs ? Pour autant on imagine qu'AMD ne va pas s'arrêter à Navi qui est théoriquement la dernière itération qui sera déclinée encore à partir de GCN. On pense donc que Lisa Su parle de l'après Navi, mais qui sait, on pourrait avoir des surprises. Elle a en effet déclaré ceci :

 

We will be “competitive in high-end graphics, we’re making high-performing quality products and building a solid long-term foundation

 

Ca veut bien dire ce que ça veut dire. AMD est conscient que le fossé se creuse sur le segment haut de gamme GPU, et donc il semblerait qu'AMD ait élaboré une architecture future qui lui permettrait, au même titre que Ryzen, d'avoir une base solide pour les années à venir comme le fut Maxwell pour Nvidia.

 

De plus lors de la publication des derniers chiffres de la firme, la part d'argent générée par les GPU est en baisse, assez nettement, explosion de la bulle Nicki oblige On le souhaite réellement car nous nous voyons mal revivre le trou technologique Bulldozer qui nous a offert 5 ans de stagnation et des prix de malades. De plus il faudra compter sur Intel avec son Discrete GPU, qui a aux commandes non seulement une équipe déjà bien rodée, et des moyens financiers presque illimités pour une R&D qui pourrait faire très mal. Si AMD ne repart pas d'une feuille blanche, ou tout du moins de révise pas en profondeur GCN,  il va avoir du mal à l'avenir, Nvidia ne se gênera pas pour décliner Turing en 7nm voire une autre architecture (peu plausible vu les délais), et Intel devrait être prêt en 2020. Cela implique que 2019 va être une année charnière où chacun mettra ses pions en place. (Source barrons)

 

amdlogo

Un poil avant ?

Comme prévu les cours de la RAM rament mais coulent quand même

Un peu plus tard ...

HTC rejoint le consortium VirtualLink : le futur de la VR définitivement via USB-C ?

Les 38 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par HaVoC, le Samedi 03 Novembre 2018 à 12h49  
par Jemporte, le Samedi 03 Novembre 2018 à 09h47
Ah oui, le Vram 3D plus chère ? Au même titre que les SSD 3D ?
Pour la taille, comme je le disais, Vega est plus puissant dans les jeux que les GTX 1070/1080 à condition d'avoir de la HBM2 plus rapide, celle prévue. Par contre Vega est nettement plus puissant dans le domaine pro, comparable à la 1080Ti et la Titan Pascal, dans certains cas plus rapide (et sans compter les FP16 alors meilleure que la P100 un GPU sensiblement plus gros [...]
La NAND 3D, n'a rien à voir avec de la HBM niveau complexité ... Je n'y peux rien si tu compares des choses pas comparables.

Non, avec de la HBM2 à 512 gb/s comme c'était prévu à la base, on aurait eut quoi ? 3 à 5 % de gain en fonction du jeu, on serait toujours dans les eaux d'un GP104.

Tu généralises beaucoup sur le domaine pro, mais alors là ... Dans certaines taches spécifiques V10 est aussi rapide qu'un GP102, dans d'autres on en est loin.

Et t'as vraiment du mal à comprendre que GCN a des goulets d'étranglements, c'est pas la bande passante mémoire qui va sauver GCN, on est bloqué à 4 Shader / Geometry Engine, la seule façon qu'ils ont d'augmenter les performances c'est en montant la fréquence, vu qu'ils veulent pas toucher à leurs 4 grosses unités de shader / geometry.

Pour rappel P10 fait 232 mm², et le GP106 fait 200 mm², c'est le même niveau de performance, alors un gros Polaris plus performant .

Ils auraient pu faire une puce plus imposante que P10/20/Ellesmere basé sur Polaris, mais pas les moyens faut aussi s'attaquer au marché Pro, V10 a été conçu pour ça, y a pas d'accord secret entre MS et Sony tu inventes des choses.

Après V10 sait pas faire de FP64, le GP100 si ... V20 les aura aussi.
par Jemporte, le Samedi 03 Novembre 2018 à 10h26  
par Sarge, le Samedi 03 Novembre 2018 à 10h06
Mais, est on certains qu'une 2080Ti puisse effectuer un rendu full RT en 60 FPS ? Mais de quelle définition parle t on ? N'est pas la démo de Remedy qui tourne à 40 FPS (1080p en full RT)? Jusqu'à maintenant ce que je retiens : est que les jeux RTX "ready" retiennent seulement un petit morceau du rendu RTX...donc, peut on parler de révolution ? A t on le droit de dire que le RTX est imminent ? Bref, je me pose toutes ces questions, car pour moi cette technologie et son utilisation à court/moyen reste très flou (sans jeu de mot).
On imagine que ça sera optimisé et qu'on visera cet objectif au travers de jeux et d'API réglés pour. Par contre on voit mal l'optimisation amener les 2070 à ce niveau. Pour elles ce sera retour aux 720x1280 ou même 480x720, pour en profiter, donc sans intérêt par rapport à du Full HD sans RTX.
Par contre tout semble concourir à ce que les RTX utilisent en partie leurs coeurs RTX et/ou tenseurs pour l'affichage classique, ce qui n'est pas documenté par Nvidia.
par cabou83, le Samedi 03 Novembre 2018 à 10h25  
par Jemporte, le Samedi 03 Novembre 2018 à 09h47
Le plus simple pour AMD aurait été de faire un gros Polaris (la taille GPU d'une GTX 1080) sous GDDR 5 bus 384 bits, mais ce n'est pas l'option choisie 2/3 ans plus tôt (il paraît qu'un accord avec Sony et M$ les en empêche). Il aurait été plus rapide que les GTX 1070/1080 à taille GPU équivalente, proche des 1080Ti et Titan Pascal.
Je te rejoins mais le problème c'est l'argent investi dans la HBM a empeché AMD de faire mieux que Vega. Sans acces à la GDDR5X aussi on aurait été limité par la GDDR5 même a 384bits. Dans l'absolue AMD aurait pu faire un polaris x3 on aurait un GPU a 6912sp pour 600mm². Mais on aurait plusieurs problème avec se die, déjà la BP en GDDR5 faudrait minimum du 512bits à haute fréquence et la bonjour la conso deja que GCN est assez énergivore je t'explique même pas. Polaris est a 150W donc en X3 on avoisinerait les 400w de tdp... Et le coup d'un tel projet impossible dans les recettes actuels.
par Jemporte, le Samedi 03 Novembre 2018 à 10h21  
Pour le haut de gamme AMD, il ne faut pas négliger l'impact des accords suite aux plateformes jeu, XBox et PS, utilisant des GPU AMD. Ce sont des Polaris un peu plus gros que celui des RX 480/580. Ca sera vraisemblablement à nouveau le cas pour Navi.
Donc ceux qui pensent que Navi va dépoter sur PC, se trompent probablement. Il sera plus puissant sur console. Donc Navi occupera le milieu/bas de gamme (en terme Nvidia) comme Polaris, sur PC, comme annoncé. Il faut l'imaginer à 200mm² de silicium, pas plus et donc dans les 200/250 euros max. Suivi du successeur Pro de Vega 20 sous HBM2.
Préserver le HDG jeu à des cartes à 200/250 euros me va très bien. Si on veut ensuite jouer avec une carte pro, dans la gamme AMD, on est libre de le faire.
par Sarge, le Samedi 03 Novembre 2018 à 10h06  
Mais, est on certains qu'une 2080Ti puisse effectuer un rendu full RT en 60 FPS ? Mais de quelle définition parle t on ? N'est pas la démo de Remedy qui tourne à 40 FPS (1080p en full RT)? Jusqu'à maintenant ce que je retiens : est que les jeux RTX "ready" retiennent seulement un petit morceau du rendu RTX...donc, peut on parler de révolution ? A t on le droit de dire que le RTX est imminent ? Bref, je me pose toutes ces questions, car pour moi cette technologie et son utilisation à court/moyen reste très flou (sans jeu de mot).
par anteraks69, le Samedi 03 Novembre 2018 à 09h52  
Enfin pour l'instant la gamme Turing fait un peu plouf !
- cartes très chères et peu disponibles
- Pas de jeux pour exploiter le Ray tracing
- Pas de tests probants sur la capacité des cartes à afficher du RT dans des conditions de jeu réelles.
- Si une RTX 2080ti n'affiche que 60 ips en FHD sur un jeu avec RT, quid des autres cartes moins puissantes ?
- Si une RTX 2070 n'arrive pas à se démarquer avec le RT alors qu'elle est moins puissante qu'une GTX 1080ti quelle sera la position de Nvidia ?
- Il commence à y avoir beaucoup de remontées sur un problème qualité lié à la fabrication des cartes RTX. Problème de mémoire ? D'assemblage ? De conception ?

Donc oui sur le papier Nvidia a de l'avance mais sur le terrain tous ces problèmes et constats risquent de donner une marge à AMD pour essayer de rattraper une partie de son retard.

par Sarge, le Samedi 03 Novembre 2018 à 09h52  
par cabou83, le Vendredi 02 Novembre 2018 à 21h00
Non mais c'est sur mais bon 1200€ pour profiter de la 4K a 60fps comment dire (2080Ti)...
Je dis pas elle est super intéressante, le jour ou elle passe a 600/700€ on en reparle d'ici la elle m'intéresse pas. Même si j'ai les moyens je refuse de mettre aussi chère pour un bout de circuit électronique...
Et je rajouterai : Fabriqué dans des usines où les employés sont probablement sous-payés et exploités...sans compter que ces cartes doivent coûter un tiers du prix final, en sortie usine. Non, je refuse également de mettre aussi cher dans un GPU, max entre 400-600 francs et de plus, je dois trouver mon compte dans cette fourchette...sans quoi, au revoir !
par Jemporte, le Samedi 03 Novembre 2018 à 09h47  
par HaVoC, le Samedi 03 Novembre 2018 à 02h01
Non, la HBM2 n'a jamais été annoncée comme peu chère comparée à de la mémoire type GDDR...Et pour V10 vs GP104 tu sembles oublier que V10 fait 484mm², et le GP104 314 mm.

De plus Nvidia n'a pas eut de soucis à se fournir coté HBM2 pour ses GP100 et GV100 ...Ils ont utilisé de la HBM2 de chez Samsung au début plus lente, mais avec 4 empilements ils étaient moins limités par le manque de fréquence initial de la HBM2, qui fut utilisé pour la première fois sur le GP100.

Nvidia n'est pas responsable des déboires de développement de la HBM2 ...
Ah oui, le Vram 3D plus chère ? Au même titre que les SSD 3D ?
Pour la taille, comme je le disais, Vega est plus puissant dans les jeux que les GTX 1070/1080 à condition d'avoir de la HBM2 plus rapide, celle prévue. Par contre Vega est nettement plus puissant dans le domaine pro, comparable à la 1080Ti et la Titan Pascal, dans certains cas plus rapide (et sans compter les FP16 alors meilleure que la P100 un GPU sensiblement plus gros).
Par ailleurs les jeux tirant profit des FP16 (très peu) font qu'elle bat encore les 1070/1080, sauf que l'écrasante majorité des jeux PC sont développés avec pour base les API Nvidia.
Donc Vega est comparable aux 1080 Ti et Titan et non au GP104 qui le rattrape par des artifices.
Donc, tous le éléments tiers ont concouru à défavoriser Vega, et non son architecture GCN.
Le plus simple pour AMD aurait été de faire un gros Polaris (la taille GPU d'une GTX 1080) sous GDDR 5 bus 384 bits, mais ce n'est pas l'option choisie 2/3 ans plus tôt (il paraît qu'un accord avec Sony et M$ les en empêche). Il aurait été plus rapide que les GTX 1070/1080 à taille GPU équivalente, proche des 1080Ti et Titan Pascal.
par HaVoC, le Samedi 03 Novembre 2018 à 02h01  
par Jemporte, le Vendredi 02 Novembre 2018 à 22h24
Il faut arrêter de critiquer GCN. GCN n'est pas une architecture figée. Il faut bien voir que le problème de Vega 56/64 c'est d'abord la prod de HBM2. Elle était censée être peu chère, or elle a été vendue plus chère et nettement moins performante que prévu [...] AMD avait tout fait dans ce sens, en laissant libres les brevets sur ce type de Vram. Nvidia a fait l'inverse : développé la GDDR5X qu'elle a protégé et facturé... et c'est celle qui a été produite en masse. Aller comprendre où vont les intérêts des fabricants...
Non, la HBM2 n'a jamais été annoncée comme peu chère comparée à de la mémoire type GDDR, des empilements de couches, un interposer, niveau complexité, ça n'a RIEN à voir avec la mémoire GDDR qui est bien plus simple à produire, niveau coût la HBM sera toujours plus chère que de la mémoire type GDDR et de très loin, y a rien à faire, c'est une méthode de production bien plus complexe.

AMD a collaboré à l'élaboration de la HBM1 avec Hynix, Micron a conçu la GDDR5X, non Nvidia, et la GDDR5X a été ratifié par le JEDEC, Samsung, SK Hynix était libre de produire de la GDDR5X sans contrainte, ils ont préféré se focaliser sur la HBM2 et surtout la GDDR6.

Et pour V10 vs GP104 tu sembles oublier que V10 fait 484mm², et le GP104 314 mm.

De plus Nvidia n'a pas eut de soucis à se fournir coté HBM2 pour ses GP100 et GV100 ...Ils ont utilisé de la HBM2 de chez Samsung au début plus lente, mais avec 4 empilements ils étaient moins limités par le manque de fréquence initial de la HBM2, qui fut utilisé pour la première fois sur le GP100.

Nvidia n'est pas responsable des déboires de développement de la HBM2 ...
par fabtech, le Samedi 03 Novembre 2018 à 01h44  
par cabou83, le Vendredi 02 Novembre 2018 à 18h16
Euh la 2080Ti est a 1100€, donc AMD a une marge de manœuvre même la 2080 est a 850€ donc meme si plus chère a prod que la vega 64, la vega 20 peut sortir a 750€, si aussi perf que la 2080 elle sera plus intéressante. Sur Vega 7nm le die sera plus petit car tjr 4096sp, donc interposer plus petit moins chère. et peut être que 2 mémoire HBM en radeon et 4 en Firepro. Bref AMD a des possibilité...
Et qui te dis que Nvidia ne s'endormira pas sur ses lauriers???
Bref AMD reviendra sur le HDG c'est sur, je pense pas avant 2020 par contre
Je reste sceptique sur les performances du Vega 20 aussi, qui vivra verra...
par Rondoudou, le Samedi 03 Novembre 2018 à 00h11  
J'espère que Intel va taper fort pour sa première en GPU, le plus tôt sera le mieux. Ras le bol de voir Nvidia dicter sa loi des prix, heureusement que AMD tient encore debout avec le mid' mais c'est limite, sans les mineurs se serait pire.
Par contre, cela n'engage que moi, mais je ne vois pas de place pour 3 acteurs sur ce marché, l'un des 3 crèvera la bouche ouverte et ce ne sera pas Nvidia on dirait, si AMD se fait manger par Intel gpU je vois bien ce dernier racheter la section Gpu d'AMD.
par Jemporte, le Vendredi 02 Novembre 2018 à 22h33  
par Janus31, le Vendredi 02 Novembre 2018 à 22h13
Nan, 2021 ca serait trop tard, ca laisserait trop de parts de marché au "petit" nouveau venu Intel qui a une roadmap GPU discrete pour 2020 !
...
Donc a mon avis, grosse grosse bagarre en 2020
Je souscrit à l'analyse sauf pour le concurrent AMD dont Nvidia se fout. Nvidia se bat avec des moyens qu'Intel n'ose plus employer. Dumping (si nécessaire) + accords litigieux (dans la Vram c'est ce qui s'est passé pour éviter le développement de la HBM2) etc. Intel s'est fait maintes fois remarquer en justice sur ces points. Nvidia est nettement moins inquiété parce que le marché sur lequel ils se battent est nettement moins lisible.
D'ailleurs les GPU Nvidia sont plus mauvais que ceux d'AMD assez régulièrement, sans que AMD en profite. Quelle en est la raison ? La raison c'est que la source de profits d'AMD c'est les CPU pas les GPU. Les GPU ne viennent qu'en complément de l'offre CPU.
Nvidia, sans leur GPU, ils sont morts. Et le GPU gaming n'est qu'une grosse vitrine. Ils vendent, font un peu de marge dessus, mais c'est ce qui permet ensuite de vendre des produits dérivés qui margent très fort dans le domaine Pro... comme les CPU serveur chez Intel.