COMPTOIR
register

AMD et Furmark divorcent

Il est vrai que ça n'a pas été le grand amour depuis la découverte d'un souci au niveau de la régulation de la tension des VRM sur les HD4800. En fait c'est donné comme un problème par le créateur de Furmark et comme quelque chose de normal par AMD. Effectivement sur ce point on ne peut que rejoindre Amédée, Furmark met en exergue une limite qui n'intervient jamais lors d'une utilisation normale de la carte, ce bras de fer qui se jouait sur un terrain logiciel vient de trouver son épilogue : AMD a bloqué de façon hardware l'accés à la gestion des VRM par l'ajout d'une puce de régulation. Vous ne pourrez plus jouer à Furmark sur vos HD5800, trop la lose ! (Source Anandtech)

  gigabyte_hd5870.jpg  

Un poil avant ?

HIS et les HD5800

Un peu plus tard ...

Test • Cooler Master Sileo 500

Les 27 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Giga, le Mercredi 30 Septembre 2009 à 18h52  
par Que des conneries ! le Mercredi 30 Septembre 2009 à 06h20
Mon exemple du moteur de la voiture est au contraire très bien choisi, perso je roule pas dans la zone dangereuse rouge du moteur. Allez qui va Furmarker ?
Bah non, désolé, il est TRES mal choisi, car il correspond à un overclocking, et pas au cas particulier d'OCCT GPU.OCCT GPU alimente le moteur de façon parfaitement normale, seulement le mélange a été optimisé pour avoir un meilleur rendement (d'où l'oxyde nitreux aka protoxyde d'azote aka NOS bien plus proche). Le mélange est conforme en ce sens que dans un moteur à combustion interne il y a toujours combustion interne, mais ça le pousse au-delà de ses limites mécaniques.Ici, on ne demande pas de faire une combustion mais des shaders répondant aux exigeances du Shader Model 4, que la carte doit être capable d'exécuter.Les 4800 de ref ont une protection trop basse et "plantent" au lieu de ralentir.
par Topodoco, le Mercredi 30 Septembre 2009 à 12h19  
Pour mon exemple, es-tu sur qu'on ne peut pas comparer la consommation entre un processeur (x86) et un processeur graphique (ati) sur une carte (mère/graphique) permettant d'alimenter le processeur en énergie (étage d'alimentation) ?Il y a une consommation variable, un consommateur s'appelant CPU/GPU mais qui n'est qu'un processeur et un étage d'alimentation !!! Sur ma carte mère, cet étage tien le choc même si mon CPU est utilisé à 100% (le genre de choses qui te semblent "surnaturelles" ). Avec FurMark, l'étage d'alimentation crame... sans doute que le GPU est poussé à 300x sa vitesse... tout le monde sait que c'est la faute de FurMark que l'étage d'alimentation est surchargé !! surtout pas parce que le GPU consomme trop !!!PS: oui j'oubliai, il y a 10 ans on ne mesurait rien !! t'as bien raison... d'ailleurs AMD ne donne aucune conso pour les Athlon XP .... et mon PC n'a même pas d'alimentation... on avait pas encore les bases nécessaires pour créer ce genre de modules !
par Un ragoteur de passage, le Mercredi 30 Septembre 2009 à 12h08  
par Que des conneries ! le Mercredi 30 Septembre 2009 à 11h31
n'importe quoi ton exemple ...
FurMark mets le doigts sur un PROBLEME ! Il utilise la carte d'une maniere tres POUSSEE ! et l'etage d'alimentation ne suis pas! Si aujourd'hui on utilise 50% de la carte, rien ne prouve que demain on n'en utilisera pas 80-90 ou 100% de manière + qu'occasionnelle! D'ou le fait de dire qu'il FAUT BRIDER cela à la SOURCE de manière HARD! et pas par un pilote qui ne gère que FurMark! Car le pilote n'empêche pas de consommer trop (et griller la carte)! mais de faire fonctionner un certain logiciel ! Qui bien que je ne m'en sert pas sur mon "vieux" PC, sert a bien des personnes pour tester et stabiliser leur machine!
par Que des conneries !, le Mercredi 30 Septembre 2009 à 11h31  
n'importe quoi ton exemple et surtout ton explication. surtout quèà l'époque de ta carte mère il ny avait aucun controle de la carte quant aux fréquences et consommation, sans compter l usage de condensateurs de premier prix qui étaient ce qui se faisaient de mieux à l'époque, mais qui sont foireux (explosent en boucon de champagne). si Furmark n avait rien dit sur ce point, personne n en aurait rien su et donc personne aurait psychoté bêtement. c ets encore plus pathétique comme ceux qui crient au vice de fabrication comme toi alors que la carte marche très bien dans tous les cas. ton parallèle CPU/Mobo est nase et ne tient pas la route bien au contraire. Donc je le dis je ne fais pas partie de ce qui se paluchent sur furmark, et ma foi je vis tres bien ainsi. Faut pas chercher les emmerdes là où il n'y en a pas.....
par Topodoco, le Mercredi 30 Septembre 2009 à 11h20  
par Que des conneries ! le Mercredi 30 Septembre 2009 à 06h20
N'importe quoi. Y a eu une vie avant Furmark et une autre après Furmark...
Vas donc te "palucher" comme tu l'entends. Perso ma carte n'a pas cramée !! NORMAL ! j'ai un Athlon XP2500+ et une carte graphique GeForce6800 en AGP ! et oui il m'arrive après 10 ans d'exploiter mon processeur à 100% de ces capacités régulièrement !! Il tien le choc et j'en suis content... On ne change pas tous de config 2x/an simplement pour avoir la + grosse ! Mais si ASUS avait mis cette même ERREUR sur ma carte mère qu'ATI mets sur ces cartes graphiques, elle aurait CRAMÿE parce que mon CPU est régulièrement à fond aujourd'hui. Et il y a 10 ans t'aurais ouvert ta grande G#E#LE pour dire que c'est pas grave parce TU ne t'en sers pas de cette manière ! C'est une erreur de conception à corriger matériellement et non par un pilote qui va gérer que 2-3 softs CONNUS et cramer sur un autre non supporté
par Raf-Moutte, le Mercredi 30 Septembre 2009 à 07h55  
Au contraire je trouve ton exemple moteur mal choisi. - D'une part parce que il y a des gens qui roulent en zone rouge et qui même cherche à la dépasser (sur piste, en rally...) et que pour les CG je pense que ça doit être pareil, la moyenne des gens ne l'utilise pas en zone rouge mais il en existe qui le font. - D'autre part, sur un moteur, pour éviter qu'il ne claque justement, y'a un rupteur qui coupe l'alimentation en escence pour ainsi faire baisser son régime (sur les diesels, c'est un régulateur, qui stabilise donc le moteur au régime max)Je suis d'accord avec l'idée que ATI devrais réaliser un bridage automatique.
par Que des conneries !, le Mercredi 30 Septembre 2009 à 06h20  
N'importe quoi. Y a eu une vie avant Furmark et une autre après Furmark, et devine quoi? personne a été touché par ce problème en usage courant même chez les plus fous qui encodent à fond! D'ailleurs toi même a surement vu ta carte cramer à encoder ton dernier Blu-ray n'est ce pas? Ce serait un problème de conception si ta carte avait cramé ou autre au niveau des VRM hein en faisant du jeu par exemple. Rien de tout ça ne t'es arrivé? je suis étonné! Faut arrêter de se palucher sur Furmark qui pousse les cartes à une limite jamais atteinte normalement. Normalement ne veut pas dire usage pépère et tranquille forcément. Mon exemple du moteur de la voiture est au contraire très bien choisi, perso je roule pas dans la zone dangereuse rouge du moteur. Allez qui va Furmarker ?
par Un ragoteur qui revient, le Mercredi 30 Septembre 2009 à 03h33  
par Giga le Mercredi 30 Septembre 2009 à 00h24
Si on peut dépasser les limites, c'est que ces limites n'en sont pas...
Gagner du temps en encodega vidéo, je trouve ça utile !Si toi perso tu t'astique le manche devant ton PC, ou pense qu'une carte graphique ne sert qu'à jouer, c'est ton avis ! Mais CUDA, OpenCL et toutes les accélérations par GPU sont le FUTUR ! De plus ce que je regrette c'est que ces cartes ne sont pas limitées automatiquement en fonction d'une charge trop importante mais parce qu'un soft s'appelle FurMark ! Donc FurMark ne pourra pas me cramer ma carte.... mais le suivant pas forcement reconnu par les pilotes le fera ! Donc c'est UNE ERREUR DE CONCEPTION !!! Un bridage automatique en fonction de la charge aurait résolut TOUS les PROBLEMES !
par Giga, le Mercredi 30 Septembre 2009 à 00h24  
Si on peut dépasser les limites, c'est que ces limites n'en sont pas.En l'occurrence, comme l'a toujours dit le Iench, tout ce qu'il fait c'est utiliser des shaders qui correspondent parfaitement aux contraintes de DirectX, alors oui, le matos devrait les encaisser dans l'absolu... et je suis pas nVidiot hein, j'ai eu qu'une 6600GT de chez eux. La comparaison avec une trottinette à moteur serait d'ailleurs plus à faire avec le protoxyde d'azote, qui impose des contraintes supérieures à un même régime.Maintenant, cette protection est tout à fait normale, surtout si elle n'a aucun impact sur l'utilisation, ce que semblent confirmer les articles sur la 5870 (1 cas de throttling pour surchauffe en CF).
par Que des conneries !, le Mardi 29 Septembre 2009 à 20h17  
Il faut arrêter de faire 36 000 parallèles inutiles qui avantagent fatalement ceux qui s'en servent. Le coup du pneu ça sert à rien. Par contre un parallèle efficace serait celui ci : le moteur de votre voiture peut aller à 5000t/min, mais une zone vous interdit d aller au dela de 4000 pour éviter de flamber votre moteur. Qui roule à fond de son moteur à fond de seconde ? Et ce n'est pas parce que ce moteur est préférentiellement utilisé à 4000t maxi qu'il est défectueux. Furmark n'est pas un logiciel pour jouer ou encoder, c'est fait pour pousser au dela des limites le matériel. C'est pareil avec les processeurs qui ont une sécurité, ben aujourd hui AMD l a implémenté dans ses HD5800. Faut arréter de vouloir faire autre chose avec sa carte d aussi inutile et futile que du Furmark ou du OCCT, une carte 3D c'est pour jouer et lire des films, toussa, pas pour s'astiquer le manche devant des softs qui n'apportent rien. Quand on se fait chi.r, on essaye de tuer les mouches avec son c.l
par Topodoco, le Mardi 29 Septembre 2009 à 17h55  
Si MICHELIN développe un pneu avec comme indice de vitesse affiché 210km/H mais explose à 135km/h, vous direz aussi que c'est pas grave parce qu'aucune voiture ne devrait dépasser les 130km/h ?? AMD à développé une bonne puce, le produit est bon ! mais l'étage d'alimentation est trop faible ! aujourd'hui on n'utilise pas 100% de la puissance dispo.. ok ! et demain ?Vous pensez vraiment qu'AMD va faire un suivit de chaque application qui utiliserait 100% des ressources pendant 10 ans ? Si demain une société développe un plugins/logiciel pour encoder de la vidéo (par exemple) par GPU, qui prouve qu'il ne va pas cramer les cartes ??? C'est beau de bloquer un soft en particulier, mais cela ne résout pas le problème ! Le risque est toujours la ! Il suffit d'utiliser une application "trop" gourmande !
par Un ragoteur qui passe, le Mardi 29 Septembre 2009 à 13h05  
par Burn2 le Mardi 29 Septembre 2009 à 12h38
Heu c'est plus OCCT qui a mis le problème en vu. Enfin à ma connaissance. Après ça a été confirmé par furmark, mais c'est bien occt qui a vraiment lancé l'affaire.
à ma connaissance, le souci avec furmark est antérieur. même qu'il fallait renommer le fichier d'exe de furmark en autre chose, vu que c'était les pilotes ati qui faisaient les flics