COMPTOIR
  
register

Overclocker son Core i3 8350K pour jouer ?

Avec ses Coffee Lake, Intel a rehaussé d'un cran le nombre de coeurs logiques de ses processeurs. Ainsi le Core i3 7350K avec ses 2 coeurs et 4 threads s'est mué en pur quadcore. Le tout sous un prix qui est resté équivalent, ce qui est nouveau pour le géant habitué à facturer le moindre "cadeau" technique. Si sa fréquence de base est élevée mais bloquée à 4 GHz, le suffixe K autorise son surcadençage. Et on se demande comment il se comporterait dans les jeux à 4 GHz et une fois overclocké.

 

Ca tombe bien, THFR a fait un article où le bousin est testé en jeu à 4 GHz, mais aussi après overclocking à 5 GHz. Ca monte bien comme bestiole, sa marge de manoeuvre est de plus plus importante que les hexacores qui en plus pédalent plus haut. Épaulé par une GTX 1080 FE - ce duo n'est pas incohérent dans le cadre du jeu et grâce aux 4 coeurs - le Core i3 8350K a donné tout ce qu'il a pu, sans regret, comme Pascal après 2 minutes 12 intensives d'acte sexuel éminemment long pour son âge.

 

La concurrence du test est assez rude, et pourtant le 8350K à 5 GHz est une tuerie dans les jeux en 1080p, finissant souvent premier devant même le 8600K qui lui doit quelques centaines de MHz mais qui a 2 coeurs de plus. Dans un cadre ludique, la formule du jour est à considérer.

 

intel

 

Un poil avant ?

Samsung a raqué moultes brouzoufs dans le business du semi-conducteur cette année

Un peu plus tard ...

PC-701 : un nouveau Top-flow chez Jonsbo

Les 24 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille de Lorraine, le Lundi 20 Novembre 2017 à 21h49  
par dantes94, le Lundi 20 Novembre 2017 à 19h15
Ceci dit n'ayant pas analyser les code sources de "95%" des programmes actuel je pense qu'il est un peu facile de conclure qu'ils sont tous monothread sous prétexte qu'ils ne gère pas plus de 4 core ou que la vitesse d'exécution reste un facteur important.
La gestion des threads n'est pas limitée par le processeur mais par le développeur qui les initie. Tout comme les processus, si un développeur ne crée pas plus de 4 threads, il ne faut pas s'attendre à occuper un octocore... cependant la multiplication artificielle des threads est contre-productive car l'équilibre de chacun est un aspect critique au parallélisme.
par dantes94, le Lundi 20 Novembre 2017 à 19h15  
par Un ragoteur sans nom de Lorraine, le Vendredi 17 Novembre 2017 à 23h10
L'intérêt de changer d'architecture c'est d'améliorer l'IPC comme mentionné plus bas et les coeurs supplémentaires n'offrent que peu voir pas d'intérêt pour la plupart des programmes.

Et pourtant c'est bien une réalité, seules quelques applications bien spécifiques peuvent tirer profit du multithreading. Aucun algorithme n'est fractionnable à l'infini ni même fractionnable de manière équilibrée.

De même que l'utilisation du GPU comme co-processeur implique des contraintes techniques (temps accès, débit mémoire, etc) limitant son intérêt à des applications bien spécifiques.
La remarque sur le changement de CPU était plutôt ironique en fait

Pour le reste je pense que je me suis un peu mélanger entre thread matériel et thread niveau programmation, a vrai dire je ne sait pas trop comment ils sont affecté.

Ceci dit n'ayant pas analyser les code sources de "95%" des programmes actuel je pense qu'il est un peu facile de conclure qu'ils sont tous monothread sous prétexte qu'ils ne gère pas plus de 4 core ou que la vitesse d'exécution reste un facteur important.
par Nanabozo732, le Lundi 20 Novembre 2017 à 16h32  
Si Vega a perdu c'est justement parce que ses Golgoths n'étaient pas de taille !
par Un ragoteur charitable de Lorraine, le Lundi 20 Novembre 2017 à 09h16  
par Un ragoteur qui draille d'Ile-de-France, le Lundi 20 Novembre 2017 à 04h05
Il y a une énorme différence entre considérer que la multiplication des coeurs ne résoudra pas tous les soucis de performances, surtout si le software ne suit pas derrière, avec le fait de décréter qu'il faudrait rester et se concentrer sur toujours plus de fréquences et tout miser sur un seul core sous prétexte qu'un test montre qu'un CPU poussé à de plus hautes fréquences rivalise avec d'autres à de moins hautes fréquences que lui mais doté de plus de coeurs. Évidemment le gars viendra encore dire "j'ai pas dit ça, en fait je voulais dire que..."
Evidemment que tu délires complètement en me prétant des propos que je n'ai pas tenu cependant tout le monde se souvient encore de l'échec de Vega soit-disant prometteur par une débauche d'unité de calculs et malgré la partie software (pilote) développé par AMD himself. Comme diraient certains ce n'est pas la taille qui compte...
par vasyjeannot, le Lundi 20 Novembre 2017 à 07h24  
Moi je pense que le système actuel commence a montrer ses limites et que les performances vont encore moins évoluer dans le futur quelles n' ont évoluées ses 10 dernières années

par Un ragoteur qui draille d'Ile-de-France, le Lundi 20 Novembre 2017 à 04h05  
par vasyjeannot, le Dimanche 19 Novembre 2017 à 23h16
Ce n' est clairement pas les propos qu' il a écris
Meme moi n' étant pas ingénieur informatique mais simple passionné amateur je comprends bien que la multiplication des coeurs CPU ne résoudra pas tous les problèmes de performance
Il y a une énorme différence entre considérer que la multiplication des coeurs ne résoudra pas tous les soucis de performances, surtout si le software ne suit pas derrière, avec le fait de décréter qu'il faudrait rester et se concentrer sur toujours plus de fréquences et tout miser sur un seul core sous prétexte qu'un test montre qu'un CPU poussé à de plus hautes fréquences rivalise avec d'autres à de moins hautes fréquences que lui mais doté de plus de coeurs. Évidemment le gars viendra encore dire "j'ai pas dit ça, en fait je voulais dire que..."
par Un ragoteur qui draille de Lorraine, le Lundi 20 Novembre 2017 à 01h08  
par vasyjeannot, le Dimanche 19 Novembre 2017 à 23h16
Ce n' est clairement pas les propos qu' il a écris
Meme moi n' étant pas ingénieur informatique mais simple passionné amateur je comprends bien que la multiplication des coeurs CPU ne résoudra pas tous les problèmes de performance
Je pense qu'à terme tous les processeurs généralistes (CPU) devront intégrer une unité de calcul vectoriel (VFPU) tout comme il existe actuellement une unité de calcul à virgule flottante (FPU) initialement optionnelle mais désormais indispensable au traitement audiovisuel.

Il reste à définir un standard pour le format binaire des vecteurs (128-bits par exemple) et l'implémenter au niveau matériel (registres et instructions machine) et logiciel (languages ou API et compilateurs).

Certains pourraient remarquer que les APU approchent une telle intégration, néanmoins elle semble bien difficile à mettre en oeuvre du fait de la distinction du CPU et du GPU ainsi que des limites de leur interaction. De plus, la nécessité d'installer un pilote me semble être un frein à l'accessibilité aux circuits graphiques notamment en ce qui concerne la portabilité (Windows, MacOS, Linux, etc).

De même, les extensions SIMD semble remplir ce rôle cependant cela reste du bricolage puisque l'ordre des composants vectoriels est précaire selon les instructions et nécessite une réorganisation coûteuse en cycles.
par vasyjeannot, le Dimanche 19 Novembre 2017 à 23h16  
par Un ragoteur qui aime les d'Ile-de-France, le Dimanche 19 Novembre 2017 à 07h43
Postule chez Intel, AMD, IBM et cie vu qu'ils sont tellement cons et n'ont rien compris en matière de conception d'architectures de processeurs.
Ça me fera toujours marrer quand de parfaits inconnus qui n'ont jamais rien conçu eux-mêmes baragouinent qu'un domaine de l'industrie est totalement à coté de la plaque et qu'il a une meilleur vision technologique du potentiel de leurs produits.
Le jour où tu sortiras des plans ou un prototype confirmant tes propos et que ça fera quelques lignes (ou pages) dans des revues spécialisées, on en reparlera.
Ce n' est clairement pas les propos qu' il a écris
Meme moi n' étant pas ingénieur informatique mais simple passionné amateur je comprends bien que la multiplication des coeurs CPU ne résoudra pas tous les problèmes de performance

par Un ragoteur sans nom de Lorraine, le Dimanche 19 Novembre 2017 à 17h51  
par Un ragoteur qui aime les d'Ile-de-France, le Dimanche 19 Novembre 2017 à 07h43
Postule chez Intel, AMD, IBM et cie vu qu'ils sont tellement cons et n'ont rien compris en matière de conception d'architectures de processeurs.
Tu délires encore sur des propos que je n'ai pas tenu. Il faudrait songer à consulter d'urgence pour soigner ta schizophrénie...

 

Ça me fera toujours marrer quand de parfaits inconnus qui n'ont jamais rien conçu eux-mêmes baragouinent qu'un domaine de l'industrie est totalement à coté de la plaque et qu'il a une meilleur vision technologique du potentiel de leurs produits.


Encore un autre délire d'un type qui ne connais pas mon background et qui ne sait apparemment pas que les ingénieurs des sociétés technologiques ne sont pas enchainés à une boîte en praticulier (e.g. Jim KELLER) et qu'ils ne se le lèvent pas tous les matins avec une idée de génie pour révolutionner l'industrie high tech.

 

Le jour où tu sortiras des plans ou un prototype confirmant tes propos et que ça fera quelques lignes (ou pages) dans des revues spécialisées, on en reparlera.


Je crains hélas que ces revues te soient inacessibles...
par dfd, le Dimanche 19 Novembre 2017 à 15h24  
En overclockant Pascal comme un Celeron 300A, il doit tenir les 3min 12 facile !
par Un ragoteur qui aime les d'Ile-de-France, le Dimanche 19 Novembre 2017 à 07h43  
Postule chez Intel, AMD, IBM et cie vu qu'ils sont tellement cons et n'ont rien compris en matière de conception d'architectures de processeurs.
Ça me fera toujours marrer quand de parfaits inconnus qui n'ont jamais rien conçu eux-mêmes baragouinent qu'un domaine de l'industrie est totalement à coté de la plaque et qu'il a une meilleur vision technologique du potentiel de leurs produits.
Le jour où tu sortiras des plans ou un prototype confirmant tes propos et que ça fera quelques lignes (ou pages) dans des revues spécialisées, on en reparlera.
par Un ragoteur sans nom de Lorraine, le Dimanche 19 Novembre 2017 à 00h54  
par Un ragoteur qui draille d'Ile-de-France, le Samedi 18 Novembre 2017 à 16h17
Et aucun pipeline n'est efficient ou allongeable à l'infini.
Et alors? Il n'existe pas que la longueur de pipeline ou la quantité de coeurs comme éléments de solution à l'amélioration des performances applicatives.

Il fait bien garder en tête que le but du matériel est d'assister l'exécution du logiciel et pour cela il faut fournir les circuits nécessaires à l'exécution rapide de sections de code critique mais pas seulement.

Les programmeurs étant paresseux par nature et par nécessité économique des entreprises, écrivent le moins de code possible (source de bugs). Néanmoins, ils sont bien incapables aujourd'hui de tirer profit des extensions SIMD par défaut de couches logicielles simples adaptées (i.e. API).

Et même en tirant profit au maximum des extensions SIMD, il n'est pas inconcevable de remplacer une section de code exécutée par un certain nombre d'instructions généralistes par un circuit spécialisé bien plus efficace.

Par conséquent, ce n'est pas en multipliant les coeurs généralistes que l'on multiplie linéairement les performances (cf. loi d'Amdahl) d'où l'existence du GPU pour jeux vidéo.