COMPTOIR
  
register

Futuremark rend disponible le test DX12 de 3DMark

Certains vont sauter de joie à l'idée de tâter pour la première fois de ce DX12. Pour autant, on va couper court à tout enthousiasme immodéré ! Il y a des contraintes, et la première, c'est que pour profiter de ces tests DX12, il faut au minimum Windows 10, le seul qui devrait bénéficier de l'API nouvelle génération Microsoft, l'idée et l'inspiration lui étant venu après un grand coup de pied aux boules de la part d'AMD ! Ensuite il ne s'agit pas à proprement parler d'une séquence animée en 3D comme il y en a sur 3DMark, mais plutôt une scène animée qui ajoute des "cubes" à la scène, histoire de la remplir. Ca démarre à 60 images par seconde et ça se termine quand le nombre d'éléments affichés - nombre qui augmente au fur et à mesure que la scène progresse - fait tomber le framerate à 30 images par seconde à peu près.

 

Le but est de montrer l'efficacité de cette API de bas niveau, non pas en termes d'IPS, mais en termes de commandes effectuées. Chaque calcul CPU est pollué par des tests internes à faire visant à s'assurer de la pureté du calcul, DX12 permet donc de rendre le pouvoir aux développeurs, c'est à dire de contrôler eux-mêmes ces calculs d'une manière bien plus efficace que la méthode DX11. Ainsi on décharge le CPU d'une partie de ces calculs bouffeurs de commandes, et il poutre donc sur son vrai travail.

 

On termine par la bonne nouvelle : le test étant compatible Mantle, et ce dernier étant à l'origine de la philosophie DX12, ceux équipés d'une Radeon gérant Mantle pourront comparer leurs résultats avec DX11, et donc cela implique qu'il n'y a pas besoin de WIndows 10 pour ce test précis.

 

futuremark_logo.jpg  

 

Par ici DX12

Un poil avant ?

ASRock confirme la sortie de sa carte X99 mini-ITX

Un peu plus tard ...

Une petite soeur pour la 970 Fatal1ty d'ASRock, la 970M Pro3 µATX

Les 20 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par seb4771, le Mardi 19 Juillet 2016 à 07h19  
par Un ragoteur choqué de Champagne-Ardenne, le Lundi 18 Juillet 2016 à 22h55
Je ne sais pas si ça été relayé mais il semblerait que Nvidia triche avec l'appui de 3DMark sur TimeSpy. http://www.overclock.net/t/1606224/various-futuremarks-time-spy-directx-12-benchmark-compromised-less-compute-parallelism-than-doom-aots-also#post_25358335 En bloquant l'async du côté AMD et en favorisant des technologies Nvidia.
Taratata, "optimisation" voyons.
C'est pas comme si nvidia avait DEJA triché sur 3dmark (ou l'autre) alors un peu plus, un peu moins.
Ils n'ont JAMAIS été clean, c'est bien dommage vu la qualité du logiciel mais bon, ça a un cout et "je" pense qu'il doit y avoir des "aides au développement" par les firmes.
par Un ragoteur choqué de Champagne-Ardenne, le Lundi 18 Juillet 2016 à 22h55  
Je ne sais pas si ça été relayé mais il semblerait que Nvidia triche avec l'appui de 3DMark sur TimeSpy. http://www.overclock.net/t/1606224/various-futuremarks-time-spy-directx-12-benchmark-compromised-less-compute-parallelism-than-doom-aots-also#post_25358335 En bloquant l'async du côté AMD et en favorisant des technologies Nvidia.
par Salva, le Samedi 28 Mars 2015 à 14h44  
L'autre graph avec la titan x et la r9 290x.
graph1 graph2
par Un ragoteur lambda d'Ile-de-France, le Samedi 28 Mars 2015 à 12h46  
par theguerrier de Quebec, le Samedi 28 Mars 2015 à 00h22
insinuerais-tu que Amd aurait volontairement brider leur carte afin de les débrides a petit feu plus tard dans l'optique justement d'affronté la nouvelle génération du competiteur euh adep du complot va ...<img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />
Volontairement non. Mais l'archi GCN est effectivement bridée sous DX11. L'API est incapable d'utiliser les ACE et la parallélisation qui est pourtant l'un des gros points forts (théorique) des Radeon.

Les tests de drawcalls publiés ces hier l'illustrent (en partie seulement de façon très claire) :
Test pcper
Comparez les résultats dx11 en ST et MT. La 290X est plus performante sur le premier thread (0.74 vs 0.61) mais ne peut tout simplement pas scaler. C'est un bridage, bien réel et avec lequel AMD compose depuis des années, mais que les nouvelles API DX12/Vulkan vont permettre de lever.
par Un ragoteur tout mignon de Provence-Alpes-Cote d'Azur, le Samedi 28 Mars 2015 à 05h48  
par MoloLasticot, le Vendredi 27 Mars 2015 à 22h08
N'empêche sa me ferai bien rigoler qu'AMD retourne Nvidia juste avec une belle opti logiciel sans a avoir sortir une nouvelle génération de CG
et bientôt les cartes 4 slots
par theguerrier de Quebec, le Samedi 28 Mars 2015 à 00h22  
par MoloLasticot, le Vendredi 27 Mars 2015 à 22h08
N'empêche sa me ferai bien rigoler qu'AMD retourne Nvidia juste avec une belle opti logiciel sans a avoir sortir une nouvelle génération de CG
insinuerais-tu que Amd aurait volontairement brider leur carte afin de les débrides a petit feu plus tard dans l'optique justement d'affronté la nouvelle génération du competiteur euh adep du complot va ...<img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />
par MoloLasticot, le Vendredi 27 Mars 2015 à 22h08  
N'empêche sa me ferai bien rigoler qu'AMD retourne Nvidia juste avec une belle opti logiciel sans a avoir sortir une nouvelle génération de CG
par Un ragoteur qui draille de Quebec, le Vendredi 27 Mars 2015 à 19h54  
je sais pas, mais je serais un peu gêné de me faire damer le pion par une carte qui a déjà un An d'existence. et tout ceux qui plussoie sur le fait que Amd n'a rien sortie de nouveau pour justement mettre en face des nouvelles 9xx et de la titan en plus elle se met égalité de celle-ci..

Je me demande jusqu'à quel point Amd savait qu'il pouvait se permettre d'attendre la sortie de nouvelle CG en sachant ce que leur 290x avait encore a offrire
par Salva, le Vendredi 27 Mars 2015 à 17h31  
Deux articles avec les derniers benchs 3dmark Dx12 montrent une R9 290x aussi puissante qu'une Titan X et 33% plus qu'une gtx980. graph2 graph1
par BX GTI 16s, le Vendredi 27 Mars 2015 à 13h53  
par Un ragoteur lambda d'Ile-de-France, le Vendredi 27 Mars 2015 à 13h42
Mantle a parfaitement joué son rôle, il peut désormais disparaitre. C'est exactement ce que voulait AMD. DX12 et Vulkan sont son héritage direct.

Que cette API soit promulguée par AMD, Microsoft ou Khronos n'a aucune sorte d'importance. Dans tous les cas il profitera très largement de l'architecture des cartes AMD.
Là pour le coup AMD a parfaitement bossé à tous les niveaux. J'imagine déjà un PC de jeu avec un CPU 8 coeurs et équipé d'une grosse carte graphique GCN1.3 full compatible DX12...
par Un ragoteur lambda d'Ile-de-France, le Vendredi 27 Mars 2015 à 13h42  
par Un ragoteur qui passe du Nord-Pas-de-Calais, le Vendredi 27 Mars 2015 à 13h16
Merci Seb4771 pour ta réponse. J'espère que Mantle ne tombera pas aux oubliettes avec l'arrivée de directx 12. Sur 3Dmark j'ai un résultat 12 fois meilleur qu'avec directx 11 pourtant sur Battlefield 4 jé gagne a peine 10fps en passant sous mantle. Wait and See
Mantle a parfaitement joué son rôle, il peut désormais disparaitre. C'est exactement ce que voulait AMD. DX12 et Vulkan sont son héritage direct.

Que cette API soit promulguée par AMD, Microsoft ou Khronos n'a aucune sorte d'importance. Dans tous les cas il profitera très largement de l'architecture des cartes AMD.
par Un ragoteur lambda d'Ile-de-France, le Vendredi 27 Mars 2015 à 13h35  
par Un ragoteur qui passe du Nord-Pas-de-Calais, le Vendredi 27 Mars 2015 à 12h40
Concrètement ça veut dire quoi ? Que ma config' sous mantle (4770k et 7950) peut être plus puissante qu'une Titan X sous directx 11 ?
Non
Concrètement cela veut dire que le traitement des "appels à afficher" ne sera plus le facteur limitant du rendu graphique. Actuellement on préfère gèrer un gros objet que plusieurs petits (ou batcher les seconds) pour limiter le nombre de ces appels et cette charge imposée aux CPU.

Il sera donc possible de faire des scènes bien plus complexes, tout en laissant le CPU bosser sur des choses plus intéressantes : Les IA par exemple
Cela va permettre d'alimenter de façon plus soutenue les GPU pour optimiser et paralléliser au maximum les opérations de rendu.

Ce benchmark concerne principalement les CPU. Les différences mesurées entre les différents GPU sur ce test ne sont pas très pertinentes à analyser.
Par contre les qualités des GCN d'AMD, sous exploitées jusqu'à aujourd'hui, tireront bien mieux partie que les nVidias du passage à dx12.

Et il conviendra également de surveiller avec grande attention la consommation des processeurs Maxwell sous dx12. La micro optimisation des tensions d'alimentation, qui leur permet d'afficher une forte efficience énergétique aujourd'hui risque de ne plus être aussi efficace sous dx12 avec une charge GPU bien plus stable.