COMPTOIR
  
register

Vers la fin du Crossfire ?

Nvidia avait commencé à supprimer le SLi à partir des cartes mainstream, dont la fameuse GTX 1060. Tout ce qu'il y avait au-dessus était capable du SLi. Sur sa génération suivante Turing, seules les 2070Super et 2080/Super/Ti supportent le SLi, en fait les GPU à base de TU104 et 102, donc on a une technologie qui se raréfie chez le caméléon. En même temps, la puissance des cartes augmente et elles sont désormais très à l'aise en 1440p, et même en UHD avec la RTX 2080 Ti. Chez AMD, les RX 5700 y compris les XT ne supportent pas le Crossfire, mais AMD n'a rien communiqué d'officiel à ce sujet quant à un arrêt pur et simple de cette technologie. Il est toutefois possible d'obtenir du Multi-GPU en jeu pour les titres DX12 et Vulkan si les développeurs l'implémantent, rien pour DX11 et antérieur, normal c'est une fonctionnalité des API de bas niveau. Bref le Crossfire a du plomb dans l'aile bien qu'en VR cela peut avoir une utilité, mais ça prend pas franchement, pas assez pour déployer des ingénieurs et des forces.

 

Clairement, la patronne a déclaré à la conférence HotChips que le software évoluait plus vite que le hardware, et que par conséquent le Crossfire n'est pas un point central de travail pour AMD. Cela n'est guère étonnant, les cartes poutrent de plus en plus à haute définition, ce que justement le multi-GPU était censé améliorer lorsque les 1440p était le saint-Graal. De plus la mise au point des pilotes et des jeux avec des moteurs à rendus différés rend obsolète une telle technologie. On parle également scaling, peu glorieux en 2019. Autre point, les gens ne sont plus prêts à dépenser pour deux GPU, le geek ne crame plus pour le fun ou pour trop peu de gains. On comprend donc que pour le grand public, le mGPU vit ses derniers instants, il n'est pas dit qu'à la prochaine génération des verts ou du gros Navi en 2020 on assiste à sa mort quasi officialisée. (Source Tweaktown)

 

amd nvidia ruby

Un poil avant ?

L'E-ATX haut de gamme à l'honneur chez Thermaltake avec le A700 Aluminum TG

Un peu plus tard ...

Quand le Ryzen 5 3500 refait parler de lui

Les 34 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un adepte de deux de Bretagne, le Lundi 26 Août 2019 à 19h56  
par Thibaut G., le Samedi 24 Août 2019 à 12h08
ben on l'a répété tout le temps sur CDH, le multiGPU pour nous n'apporte rien de bon : conso en hausse, chauffe en hausse, prise en charge retard par rapport à la sortie des jeux, bugs, plantages, scaling imparfait (30 à 40% c'ets inutile), bref payer 2x plus pour avoir 40% de perfs en plus c'est une opération mal calculée. Rien ne vaut la stabilité et la force d'un GPU plus puissant. Et a titre perso je ne pleure pas la raréfaction du mGPU, on a des solutions plus solides pour jouer aujourd'hui
30 à 40% de scaling, bonjours la désinformation. C'est sur que si vous faite une moyenne entre ceux où le crossfire est pas (ou mal) supporté et ceux où cela fonctionne parfaitement. Sur un jeux comme Battlefield, le scaling était à plus de 90%. Matériellement, un crossfire n'apporte pas juste 40% de puissance supplémentaire comme vous le laissez croire.
Alors oui, acheter du matériel qui n'est pas exploité par les jeux auquels vous jouez ne sert à rien. Et cela n'a jamais était un investissement d'avenir car l'on ne savait pas lesquels le seront.
En tout cas ce n'était pas une mauvaise idée mais l'intégration de cette techno aurait dû être plus transparente pour les développeurs.
Perso, je suis passé de 2 HD7950 à une rx580 il y a un an. A cette époque on voyait déjà que le mGpu c'était mort
par Ragoteur qui prend l'eau en Île-de-France, le Lundi 26 Août 2019 à 09h41  
Les arguments avancés sont tous très bons, en premier lieu celui de Thibaut indiquant que le support du SLI/Xfire arrivait toujours en retard sur les sorties de jeux et qu'il fallait parfois carrément le désactiver sur certains jeux sans quoi le résultat était pire.
OK.

Mais en tuant le mGPU, c'est une possibilité d'évolution de config que l'on nous enlève.
Ce n'était jamais une très bonne solution d'acheter deux GPU en même temps à leur sortie, mais lorsque ma HD 5870 a commencé à tirer la gueule et que j'ai pu en toper une seconde à 100-120 euros deux ans plus tard, j'étais bien content de repartir pour quelques années sans avoir à racheter immédiatement un GPU bien plus cher.
par Gry20r, le Lundi 26 Août 2019 à 05h23  
par seb4771, le Dimanche 25 Août 2019 à 17h44
Euh, les 2 non rien à voir ensemble.

VDP1 = sprites + 3D avec la majorité de la ram vidéo
VDP2 = background, peu de ram, pas super performante et elle est incapable de faire la même chose.
C'est quand meme du multi gpu, même si les proco sont différents. Ils étaient utilisés en meme temps, pour traiter du son parfois meme

Sinon c'est un vieux concept qu'il était temps de jeter pour ces fondeurs, la balance a penché vers la dépense inutile avec peu de retours niveau $$, il en fallait pas plus.
Jeter la balle vers les API bas niveau c'est facile, combien de devs vont optimiser pour deux GPU ? Deja qu'il n'est pas facile d'avoir une version de base PC potable et exempte de bugs, que les optis sont retardées à la v1.1, voire à l'opus suivant, je vois mal du temps homme dédié au mGPU.
C'est un vieux concept de win win qui s'en va, le constructeur qui vendais deux cartes au lieu d'une, et l'utilisateur qui avait son kikitoudur et encore plus de temps à passer à bricoler qu'a jouer, une belle symbiose.

par Zoroastre, le Dimanche 25 Août 2019 à 17h55  


Edit mal lu la réponse

par seb4771, le Dimanche 25 Août 2019 à 17h44  
par Zoroastre, le Dimanche 25 Août 2019 à 10h21
Faux ! la Saturn était multi gpu avec ses VDP1 & VDP2
Euh, les 2 non rien à voir ensemble.

VDP1 = sprites + 3D avec la majorité de la ram vidéo
VDP2 = background, peu de ram, pas super performante et elle est incapable de faire la même chose.
par Zoroastre, le Dimanche 25 Août 2019 à 17h27  
par Un ragoteur des lumières embusqué, le Dimanche 25 Août 2019 à 16h46
En effet, je l'avais complètement oublié celle là
L'exception qui confirme la règle quoi
Pour l'anecdote le premier gpu d'nvidia, le nv1 était basé sur la technologie des gpu de la Saturn.
Les cartes comportaient d'ailleurs des ports manettes Saturn et il y avait eu des portages de jeux Saturn l'exploitant
par Un ragoteur des lumières embusqué, le Dimanche 25 Août 2019 à 16h46  
par Zoroastre, le Dimanche 25 Août 2019 à 10h21
Faux ! la Saturn était multi gpu avec ses VDP1 & VDP2
En effet, je l'avais complètement oublié celle là
L'exception qui confirme la règle quoi
par Une ragoteuse à forte poitrine du Centre-Val de Loire, le Dimanche 25 Août 2019 à 16h36  
En fait il la retire pour la remettre plus tard (8k) quand les GPU offriront plus assez de perf avec un nom élitiste et le prix bien sur
par pascal2lille, le Dimanche 25 Août 2019 à 12h38  
Une bonne carte graphique suffit largement pour la plupart des besoins.
par Zoroastre, le Dimanche 25 Août 2019 à 10h21  
par Un champion du monde embusqué, le Dimanche 25 Août 2019 à 01h37
Les consoles ont toujours été monogpu
Faux ! la Saturn était multi gpu avec ses VDP1 & VDP2
par Un champion du monde embusqué, le Dimanche 25 Août 2019 à 01h37  
par MagiX du Grand Est, le Samedi 24 Août 2019 à 23h24
Les consoles sont monogpu, donc utiliser du multigpu par les editeurs... Lol
Le multigpu j y trouve sens dans une certaines mesure pour le raytracing, mais y a déjà bien du boulot avant cela, commencer par vraiment utiliser le potentiel de vulkan et dx12... Trop peu de jeux le font
Les consoles ont toujours été monogpu, ça n'a pas ça pas empêché le multigpu d'exister.
De plus il me semble que ce sont Nvidia et AMD qui gèrent les profiles pour que le sli/CF soit prit en compte.
par MagiX du Grand Est, le Samedi 24 Août 2019 à 23h24  
Les consoles sont monogpu, donc utiliser du multigpu par les editeurs... Lol
Le multigpu j y trouve sens dans une certaines mesure pour le raytracing, mais y a déjà bien du boulot avant cela, commencer par vraiment utiliser le potentiel de vulkan et dx12... Trop peu de jeux le font