COMPTOIR
register

Une autre rumeur de retard des HD 8000

Après Fudzilla il y a quelques jours, voici une autre rumeur qui semble confirmer la première. C'est Digitimes cette fois qui a eu vent de son côté de ce report de la famille Sea Islands, un refresh de la famille Southern Islands actuelle. L'architecture remodifiée probablement légèrement devrait arriver selon leurs sources au Q2 2013, tout comme la rumeur en provenance de Fudzilla la semaine dernière.

Quoi qu'il en soit, les ventes vont bien, chez les deux géants même, et dans la mesure où Nvidia sortira son refresh probablement durant ce même Q2 2013, ceci explique sûrement cela. Il est donc important pour ceux qui attendaient de changer de GPU de finalement se rabattre vers les BP de CDH, les seuls et uniques ! (Source : Digitimes.. et les bruits de couloirs)

 

amd_radeon_graphics.jpg  

Un poil avant ?

Le Sugo SG09 pour les nuls

Un peu plus tard ...

Bon plan: kit de 3 CPL 500Mbps avec prise femelle + double ethernet à 69,90€ ! (terminé)

Les 46 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Almist, le Mercredi 05 Décembre 2012 à 17h56  
par cabou83 le Mercredi 05 Décembre 2012 à 17h43
Je t'ai envoyé un message privé sur ton profil (forum) pour ton PhenomII, ça pourrais t'intéresser.
ok, merci beaucoup, je vais voir ça
par cabou83, le Mercredi 05 Décembre 2012 à 17h43  
par Almist le Mercredi 05 Décembre 2012 à 16h12
bon, sinon d'après vous, se monter une config pour le 19 mai c'est faisable avec du Haswell et du Oland ? Je compte y mettre environ 800€ alimentation exclue(j'ai déjà un x660 de seasonic )
Je t'ai envoyé un message privé sur ton profil (forum) pour ton PhenomII, ça pourrais t'intéresser.
par Almist, le Mercredi 05 Décembre 2012 à 16h12  
bon, sinon d'après vous, se monter une config pour le 19 mai c'est faisable avec du Haswell et du Oland ? Je compte y mettre environ 800€ alimentation exclue(j'ai déjà un x660 de seasonic )
par Christophe T., le Mercredi 05 Décembre 2012 à 15h18  
par Almist, le Mercredi 05 Décembre 2012 à 15h05  
Oops, effectivement je me rends compte de ma connerie

Pourtant je bois pas....je vous assure...
par Un ragoteur qui se tâte, le Mardi 04 Décembre 2012 à 21h33  
par cabou83 le Mardi 04 Décembre 2012 à 18h58
Peu un porte...

par cabou83, le Mardi 04 Décembre 2012 à 20h21  
par sandypoutrepasmal le Mardi 04 Décembre 2012 à 19h49
C'est vrai... tu avais dit au max, mais moi, avec ma rover, bien qu'elle "puisse" aller dans le rouge de chez rouge au compte-tour, je ne vais pas rouler avec le rupteur à fond tout le temps. Pourquoi? Déjà parce que ce n'est pas préconisé par le constructeur, en plus de ça j'aurai peur d'exploser mon moulin, et ma consommation ne sera pas représentative non plus de l'usage courant. Disons que les constructeurs fixent des limites pour ne pas être emmerdé, et on les comprend!
Bref, le max, c'est ce que Nvidia a fixé, le reste c'est de la littérature.
J'ai pas bien compris, mais les valeurs que j'ai trouvé ne sont pas celle constructeur mais bien celle relevé lors d'un test sur Furmark, mais c'est vrai que les cartes sont en moyennes moins énergivore en jeux selon les calcules qu'elles doivent faire (tesselation, filtrage, texture,...) puis sans compter les temps de chargement ou la carte reviens presque en idle (le temps de remplir la mémoire graphique des nouveaux niveaux à afficher).
par cabou83, le Mardi 04 Décembre 2012 à 20h10  
par Un ragoteur qui se tâte le Mardi 04 Décembre 2012 à 19h59
Et c'est pas la seule faute que j'ai fais, des fois quand je me relis j'ai envie de me mettre des claques, tellement mes fautes sont grosses comme des maisons...
par Christophe T. le Mardi 04 Décembre 2012 à 20h05
C'était son 666ème message, un coup de folie démoniaque a dû le traverser
Ça doit être ça.
par Christophe T., le Mardi 04 Décembre 2012 à 20h05  
par Un ragoteur qui se tâte le Mardi 04 Décembre 2012 à 19h59
/> />
C'était son 666ème message, un coup de folie démoniaque a dû le traverser
par Un ragoteur qui se tâte, le Mardi 04 Décembre 2012 à 19h59  
par cabou83 le Mardi 04 Décembre 2012 à 18h58
Peut un porte
par sandypoutrepasmal, le Mardi 04 Décembre 2012 à 19h49  
par cabou83 le Mardi 04 Décembre 2012 à 18h58
Peut un porte j'ai bien précisez que c'était au max Donc si la GTX580 en jeux n'est pas à 325W alors la HD7970 n'est pas à 270W. Pour moi un burn est bien plus représentatif car la consommation en jeux varie tellement selon le jeux (voir les tests du comptoir entre BF3 et Métro 2033), un burn te dit, au moins, comment au max ta carte est gourmande.
C'est juste ta phrase "il y a peu ou prou de différence en charge entre une gtx580 et une 7970GE" qui m'a fait réagir, car elle est totalement fausse. AMD est toujours resté dans ses consommation là pour son HDG (HD5870,HD6970,HD7970GE...) à savoir vers 270/280W max pour la carte (seul), bien loin des plus de 325W demandé des GTX580 ou GTX480.
C'est vrai... tu avais dit au max, mais moi, avec ma rover, bien qu'elle "puisse" aller dans le rouge de chez rouge au compte-tour, je ne vais pas rouler avec le rupteur à fond tout le temps. Pourquoi? Déjà parce que ce n'est pas préconisé par le constructeur, en plus de ça j'aurai peur d'exploser mon moulin, et ma consommation ne sera pas représentative non plus de l'usage courant. Disons que les constructeurs fixent des limites pour ne pas être emmerdé, et on les comprend!
Bref, le max, c'est ce que Nvidia a fixé, le reste c'est de la littérature.
par sandypoutrepasmal, le Mardi 04 Décembre 2012 à 19h23  
par akathriel le Mardi 04 Décembre 2012 à 17h55
...
EDIT : Sauf qu'en jeu, même là elle pompe bien genre 221 w sous bf2...
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Geforce-GTX-580-im-Test-Die-bessere-Geforce-GTX-480-798165/2/
231 sous anno 2070
193 sous bf3
http://www.hardware.fr/articles/869-3/consommation-performances-watt.html
Avec l'un des plus mauvais rapports perf/watt
Et qu'est ce que cela est censé démontrer ?
A la base j'évoque une comparaison sur une consommation élevée, cela implique donc une confrontation entre deux cartes.
Sur le premier lien les valeurs sont toutes indiquées dans la fourchette que j'avais annotée.
Sur le second, tu mentionnes l'un des plus mauvais rapports perf/watt, mais d'une part je n'ai jamais évoqué ce sujet, d'une autre ça n'a aucune valeur puisque tu compares deux générations différentes. La génération GTX600 ayant d'ailleurs sur le haut de gamme un meilleur rapport perf/watt qu'AMD selon le graphique de ton lien.