COMPTOIR
  
register

Core i7 5775C : 430 boules de bonheur ?

La série Broadwell LGA gravée en 14nm a un peu le cul entre deux chaises. Si elle profite du procédé de gravure 14nm, d'un iGPU très véloce, de 128Mo d'eDRAM en guise de L4, elle possède 2Mo de moins sur le L3 à série équivalente, et son tarif est assez prohibitif. Ce dernier point est véritablement le plus problématique surtout pour le 5775C, puisqu'il place la puce d'Intel au même niveau que le 5820K, un hexacore extrêmement rapide qui devrait en faire une bouchée en applicatif. Car du L4 ne peut remplacer l'efficience de deux coeurs de plus associés à de l'hyperthreading. Alors si on envisage l'évolution ultime de sa plateforme LGA1150 animée par du Pentium ou du Core i3, ça devient intéressant, pour ceux qui ont un i5 ou i7, il y aura peu de cohérence à migrer.

 

Legion Hardware a fait le test du gros, 3.3 à 3.7 GHz, 6Mo de L3, 128Mo d'eDRAM, un TDP à 65W, un iris Pro 6200 dont nous sommes en train d'évaluer les performances en jeu, il a de quoi faire face à un 4790K Haswell, qui, s'il est un TICK, n'est pas qu'un die shrink. Cependant, on a bien vu dans d'autres articles que le L4 mutualisé pouvait s'avérer un redoutable argument de performance quand les titres et softs étaient capables d'y piocher dedans.

 

intel broadwell cpu

 

Un poil avant ?

OCZ lance son SSD TLC 100% Toshiba (et avec nos tests en prime)

Un peu plus tard ...

F1 2015 se fait bencher

Les 32 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille de Rhone-Alpes, le Mardi 14 Juillet 2015 à 13h14  
par Un ragoteur barré d'Ile-de-France, le Mardi 14 Juillet 2015 à 08h08
Parce qu'il y a plein d'ancien logiciels, et surtout des jeux, qui ne sont pas du tout optimisés pour le multithread, et donc il faut toujours les faire tourner. Le marché n'est pas encore mûr, c'est tout. Quand à la longueur des pipelines, tu est hors-sujet, ça n'a rien à voir.
Je ne crois pas car un pipeline sert également à travailler en parallèle lorsque l'indépendance des résultats d'une succession d'instructions est possible. Il en est de même pour le multicore lorsqu'un algorithme est fractionnable pour être dispatché entre plusieurs coeurs. Ce qui ramène au problème fondamental des limites du parallélisme d'un programme... mais c'est clair qu'avec de la poudre de perlimpinpin tout est possible!
par Un ragoteur barré d'Ile-de-France, le Mardi 14 Juillet 2015 à 08h08  
Parce qu'il y a plein d'ancien logiciels, et surtout des jeux, qui ne sont pas du tout optimisés pour le multithread, et donc il faut toujours les faire tourner. Le marché n'est pas encore mûr, c'est tout. Quand à la longueur des pipelines, tu est hors-sujet, ça n'a rien à voir.
par Un ragoteur blond de Rhone-Alpes, le Lundi 13 Juillet 2015 à 23h34
Si c'était si simple pourquoi les fabricants de processeurs s'embêteraient à produire des double coeurs à plus de 3 GHz plutôt qu'un 32 coeurs à seulement 200 MHz dont la consommation serait bien moindre avec une faible tension d'alimentation? Pourquoi ne pas également augmenter à l'infini la longueur des pipelines à l'instar du Pentium 4 Prescott? Je crains hélas que la réalité est bien plus complexe que ce que pourrait penser intuitivement un novice de la programmation...
par Un ragoteur sans nom embusqué, le Mardi 14 Juillet 2015 à 08h07  
oue enfin bon.

bloodmary est un troll qui raconte des aneries.
par Un ragoteur blond de Rhone-Alpes, le Lundi 13 Juillet 2015 à 23h38
Ca a déjà été réalisé chez 3dfx et on connaît déjà ce qu'il en est advenu... enfin pour ceux qui ne suçaient pas leur pouce (ou autre chose) à l'époque!
il trollait.

comme dab quoi...
par Un ragoteur blond de Rhone-Alpes, le Lundi 13 Juillet 2015 à 23h38  
par bloodymary, le Lundi 13 Juillet 2015 à 23h02
Et ce sera pareil niveau GPU, l'avenir c'est 3,4,5 voire 6 gpu sur une carte
Ca a déjà été réalisé chez 3dfx et on connaît déjà ce qu'il en est advenu... enfin pour ceux qui ne suçaient pas leur pouce (ou autre chose) à l'époque!
par Un ragoteur blond de Rhone-Alpes, le Lundi 13 Juillet 2015 à 23h34  
par Un ragoteur barré d'Ile-de-France, le Lundi 13 Juillet 2015 à 17h32
Actuellement et dans le futur il n'y a pas d'autres solution que de multiplier les coeurs pour augmenter les performances, quand aux jeux vidéos, ils vont bien s'y mettre un jour ou l'autre. J'ajouterai que généralement, si on fait un code qui tire partie de 4 coeurs, il est ensuite très facile de le faire fonctionner avec beaucoup plus, donc il est clair que l'avenir est au multicore.
Si c'était si simple pourquoi les fabricants de processeurs s'embêteraient à produire des double coeurs à plus de 3 GHz plutôt qu'un 32 coeurs à seulement 200 MHz dont la consommation serait bien moindre avec une faible tension d'alimentation? Pourquoi ne pas également augmenter à l'infini la longueur des pipelines à l'instar du Pentium 4 Prescott? Je crains hélas que la réalité est bien plus complexe que ce que pourrait penser intuitivement un novice de la programmation...
par bloodymary, le Lundi 13 Juillet 2015 à 23h02  
par Un ragoteur barré d'Ile-de-France, le Lundi 13 Juillet 2015 à 17h32
Actuellement et dans le futur il n'y a pas d'autres solution que de multiplier les coeurs pour augmenter les performances, quand aux jeux vidéos, ils vont bien s'y mettre un jour ou l'autre. J'ajouterai que généralement, si on fait un code qui tire partie de 4 coeurs, il est ensuite très facile de le faire fonctionner avec beaucoup plus, donc il est clair que l'avenir est au multicore.
Et ce sera pareil niveau GPU, l'avenir c'est 3,4,5 voire 6 gpu sur une carte
par AMvidia, le Lundi 13 Juillet 2015 à 18h45  
De plus en plus cher chez intel
(ou un autre )
par Un ragoteur barré d'Ile-de-France, le Lundi 13 Juillet 2015 à 17h32  
Actuellement et dans le futur il n'y a pas d'autres solution que de multiplier les coeurs pour augmenter les performances, quand aux jeux vidéos, ils vont bien s'y mettre un jour ou l'autre. J'ajouterai que généralement, si on fait un code qui tire partie de 4 coeurs, il est ensuite très facile de le faire fonctionner avec beaucoup plus, donc il est clair que l'avenir est au multicore.
par Un ragoteur blond de Rhone-Alpes, le Lundi 13 Juillet 2015 à 15h32
Multiplier les coeurs n'a jamais permis de multiplier linéairement les performances, d'autant plus que les développeurs sont suffisamment paresseux (ou intelligents au choix) pour ne pas optimiser leur programme spécifiquement pour le multicore puisque c'est une perte de temps considérable à ne pas corriger des bugs ou à apporter des améliorations fonctionnelles. Pour améliorer sensiblement les performances il faudra creuser la question au delà de la multiplication des coeurs.
par Nanabozo732, le Lundi 13 Juillet 2015 à 16h21  
par Un ragoteur blond de Rhone-Alpes, le Lundi 13 Juillet 2015 à 15h32
Multiplier les coeurs n'a jamais permis de multiplier linéairement les performances, d'autant plus que les développeurs sont suffisamment paresseux (ou intelligents au choix) pour ne pas optimiser leur programme spécifiquement pour le multicore puisque c'est une perte de temps considérable à ne pas corriger des bugs ou à apporter des améliorations fonctionnelles. Pour améliorer sensiblement les performances il faudra creuser la question au delà de la multiplication des coeurs.
Quand l'infrastructure, les logiciels et le contexte sont adaptés et optimisés en fonction des usages et du matos, la multiplication des coeurs d'exécution et de calculs apporte des gains non négligeables. C'est pas pour rien que les serveurs et supercalculateurs en utilisent autant que possible.
par Un ragoteur qui craint d, le Lundi 13 Juillet 2015 à 16h16  
par Wulfy, le Lundi 13 Juillet 2015 à 13h20
Plus que jamais, pour tout ceux qui ont encore des bon processeurs(depuis sandy), c'est pas maintenant que la relève arrive.
nehalem fait encore très bien le boulot pour ma part
par Un ragoteur blond de Rhone-Alpes, le Lundi 13 Juillet 2015 à 15h32  
par Thyrion, le Lundi 13 Juillet 2015 à 11h38
Si ils nous enlèvent la partie GPU et duplique l'autre moitié, ça pourrait donner quelque chose de pas mal pour le même prix
Multiplier les coeurs n'a jamais permis de multiplier linéairement les performances, d'autant plus que les développeurs sont suffisamment paresseux (ou intelligents au choix) pour ne pas optimiser leur programme spécifiquement pour le multicore puisque c'est une perte de temps considérable à ne pas corriger des bugs ou à apporter des améliorations fonctionnelles. Pour améliorer sensiblement les performances il faudra creuser la question au delà de la multiplication des coeurs.
par Superubu, le Lundi 13 Juillet 2015 à 15h20  
par Xorg, le Lundi 13 Juillet 2015 à 14h27
C'est clair. Toujours sur Sandy et je ne suis pas jaloux.
Idem sur Nehalem Overclocké, j'attends l'année prochaîne en espérant qu'AMD revienne dans la course avec un bon rapport qualité / prix