COMPTOIR
  
register

Jour J pour Trinity, les tests complets des A8-5600K et A10-5800K (MAJ)

Nous y voilà ! C'est donc aujourd'hui que l'architecture Bulldozer, et même plus précisément Piledriver directement fait (enfin) son arrivée dans les APU d'AMD puisque pour rappel Llano exploitait encore celle des bons vieux Phenom II et Athlon II. L'occasion de voir évidemment les fréquences CPU s'envoler puisqu'on atteint et même dépasse en Turbo les 4GHz alors que Llano peinait avec les 3GHz. La contrepartie est l'arrivée de cette fameuse combinaison étrange de 4 coeurs mais incomplets, formés de 2 modules et ayant un impact négatif sur les performances générales face à de "véritables" quadcores. La partie CPU de ces Trinity a-t-elle suffisamment de punch pour creuser l'écart sur les prédécesseurs Llano ? C'était la grande question et AMD avait jusqu'ici bridé toute information à ce sujet lors de la publication des quelques previews...

 

Trinity, c'est également l'arrivée d'une nouvelle génération de GPU intégrés, qui là aussi laissait songeurs au début quand on a pu constater que la déclinaison la plus puissante, la HD 7660D n'embarquait "que" 384SP quand la HD 6550D des Llano montait à 400SP. Heureusement les fréquences GPU nettement plus élevées sur Trinity ne laissent guère planer le doute sur des performances supérieures, encore fallait-il juger de l'écart réellement créé qui risquait de ne pas être bien énorme.

 

Il est temps d'avoir des réponses concrètes à toutes ces questions, voici donc une liste des tests complets (et non plus preview) publiés en ce jour de lancement et que nous mettrons à jour si d'autres publications marquantes (principalement francophones pour ceux qui ne sont pas à l'aise avec la langue de Shakespeare) sont mises en ligne plus tard dans la journée.

 

 a10_5800_a8_5600_cpu.jpg

 

A8-5600K et A10-5800K chez Hardware.fr (FR)

A8-5600K et A10-5800K chez Tom's Hardware France (FR) MAJ

A8-5600K et A10-5800K chez PCWorld (FR) MAJ

A8-5600K et A10-5800K chez Les Numériques (FR) MAJ

A8-5600K et A10-5800K chez PC Perspective (EN)

A10-5800K chez X-bit labs (EN)

A10-5800K chez HeXus (EN)

Un poil avant ?

Les tablettes Windows 8 en Clover Trail pourraient être retardées ?

Un peu plus tard ...

Finalement on double la GDDR5 pour le GK104 chez Gigabyte

Les 63 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur temporaire, le Dimanche 07 Octobre 2012 à 13h56  
Juste pour info
Resident Evil 6 PS360 = full 720p @18-30fps (24-28fps avec de nombreux zombies)
par Un ragoteur qui se tâte, le Jeudi 04 Octobre 2012 à 07h20  
par Un ragoteur qui se tâte le Jeudi 04 Octobre 2012 à 07h20
On a bien compris l'idée. Mais permet-moi de contester, le A10 a un intérêt car le GPU intégré est capable de remplacer une carte graphique supplémentaire pour qui n'a pas forcément besoin d'une bête de course pour jouer.

Et puis, rien que pour éviter les bugs en tout genre, le suivi des pilotes chez Intel n'est pas vraiment rassurant.
par Un ragoteur qui se tâte, le Jeudi 04 Octobre 2012 à 07h20  
par Frank Drebbin le Mercredi 03 Octobre 2012 à 21h25
Sauf que pour celui qui ne joue pas, le HD4000 suffit amplement ...
Et pour celui qui joue, le A10 n'a aucun intérêt : les processeurs intel avec une carte graphique sont bien plus performant !
On a bien compris l'idée. Mais permet-moi de contester, le A10 a un intérêt car le GPU intégré est capable de remplacer une carte graphique supplémentaire pour qui n'a pas forcément besoin d'une bête de course pour jouer.

Et puis, rien pour éviter les bugs en tout genre, le suivi des pilotes chez Intel n'est pas vraiment rassurant.
par Frank Drebbin, le Mercredi 03 Octobre 2012 à 21h25  
par ter1430 le Mercredi 03 Octobre 2012 à 12h02
Pourquoi aucune conclusion fini par dire que A10 c'est de la bombe comparai au HD4000 de Intel ...
Sauf que pour celui qui ne joue pas, le HD4000 suffit amplement ...
Et pour celui qui joue, le A10 n'a aucun intérêt : les processeurs intel avec une carte graphique sont bien plus performant !

par Un ragoteur de passage, le Mercredi 03 Octobre 2012 à 13h20  
par ter1430 le Mercredi 03 Octobre 2012 à 12h02
Pourquoi aucune conclusion fini par dire que A10 c'est de la bombe comparai au HD4000 de Intel ...

MAJ : donc évaluer sur ce critère.
Le test Hardware.fr le dit très clairement...
"Côté graphique, les évolutions ne sont pas spectaculaires. Certes c'est suffisant pour passer devant Llano, et rester largement devant ce que propose aujourd'hui Intel (que l'on regarde le HD 2500 ou même le HD 4000), mais globalement le niveau de performances reste assez faible. On est toutefois au-delà des cartes graphiques "premier prix" se situant aux alentour des 60 euros, qui n'ont donc plus grand intérêt. "
par Un ragoteur de transit, le Mercredi 03 Octobre 2012 à 12h11  
par ter1430 le Mercredi 03 Octobre 2012 à 12h02
Pourquoi aucune conclusion fini par dire que A10 c'est de la bombe comparai au HD4000 de Intel ...

MAJ : donc évaluer sur ce critère.
Ouch, mes yeux qui piquent.
Pour te répondre ter1430, j'ai envie de te dire que le monde n'est pas aussi moral qu'il n'y paraît, c'est triste...
par Un ragoteur inspiré, le Mercredi 03 Octobre 2012 à 12h08  
Chaque news AMD "réveille les anti et les pro"
par ter1430, le Mercredi 03 Octobre 2012 à 12h02  
Pourquoi aucune conclusion fini par dire que A10 c'est de la bombe comparai au HD4000 de Intel ...

MAJ : donc évaluer sur ce critère.
par Un ragoteur temporaire, le Mercredi 03 Octobre 2012 à 11h28  
n'empeche , ont sais maintenant pourquoi "bulldozer" etait nommé ainsi !
pour avoir creuser , il a creuser le bulldo ( mais juste en dessous de lui )
par Vaark, le Mercredi 03 Octobre 2012 à 10h09  
Parfaits pour des HTPC. Il ne manque plus qu'une offre cohérente en µATX.
par Un ragoteurrrrrrrrrrrr, le Mercredi 03 Octobre 2012 à 09h01  
voilà je reprend mon mot sur le test de carte graphique à - de 100$ et surtout de voir la différence entre carte graphique DDR3 et carte graphique DDR5. Et en plus il y a le test chez x-bit labs, ils montrent la différence d images en fonction de la vitesse de la mémoire.

par Un ragoteurrrrr, le Vendredi 28 Septembre à 16h13
Il faudra faire un test avec de la DDR4 déjà qu'avec de la DDR3 plus rapide la partie graphique peut gagner 15% ou plus. La partie graphique est peut être "bridée" !
http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_8.html#sect0
Il faut déjà voir la différence entre une carte graphique Gddr3 et GDDR5 !
Je rajoute d autres adresses de test qui prouvent la différence entre la DDR3 équivalente à ce qui existe sur une carte mère et la DDR5 qui est embarqué sur la carte graphique.

http://technewspedia.com/video-card-sapphire-hd-7750-2gb-ddr3-proof/

et le test d origine à cet article en allemand.

http://ht4u.net/reviews/2012/budget_grafikkarten_benchmarks_gt_640_gtx_650_hd_7750_ddr3/index15.php
par Un ragoteur inspiré, le Mardi 02 Octobre 2012 à 21h11  
par Un ragoteur qui revient le Mardi 02 Octobre 2012 à 20h52
C'est meme pas en théorie, c'est trop tiré par les cheveux là, c'est pas des baguettes de pain que t'es en train de comparer, il y'a bien plus de paramètres qui entrent en jeux que des divisions par deux.
En même temps il manque aussi le cache L3. On sait bien que Intel au niveau perf CPU est devant mais AMD reste tout de même assez puissant pour je pense les 3/4 des personnes. Le gros soucis je dirais pour AMD reste à la consommation en pleine charge face au CPU Intel. C'est plutot qu'il faut bagarrer pour AMD.