COMPTOIR
  
register

Meltdown et Spectre : quels impacts sur le calcul scientifique ?

Après avoir défrayé la chronique il y a une bonne quinzaine de jours, les failles Meltdown et Spectre (lui-même divisé en deux sous-failles) se sont vues plus ou moins corrigées, soit par des patchs au niveau du noyau des principaux OS (Mac, Windows, Linux) pour Meltdown, et des mises à jour de micrologiciel/BIOS pour Spectre. Cependant une grande inconnue subsiste toujours : les conséquence sur les performances des machines.

 

Les résultats préliminaires annonçaient des pertes pouvant se chiffre jusque 25%, aïe ! Heureusement, les jeux se sont depuis révélés peu impactés, car la corrections des failles s'effectue au niveau des appels systèmes, ce qui se ressent principalement sur les lectures/écritures sur disque. Autant dire qu'à moins de sauvegarder un document excel toute les demi secondes, cela passe quasi inaperçu chez Mme Michu.

 

Cependant, outre le monde du cloud et des bases de données, fortement impacté ; le domaine du calcul haute performance est également sujet a ces failles. En effet, les processeurs utilisé sont très souvent des Xeon, vulnérables eux aussi. Des chercheurs de l'université de Bufallo Grill se sont penchés sur ce problème en testant sur une machine bien testicouillue quoi qu'un peu âgée : 8 nœuds de deux processeurs Xeon L5520, des CPU hyperthreadés à 4 cœurs physiques utilisant l'architecture Nehalem. Pas le genre de pépé dans son garage !

 

Les résultats sont plutôt contrastés : si la majorité des applications n'utilisant qu'un noeud subit un ralentissement de 2 à 3% (contre 5 à 11% pour les applications multi-noeud), certaines fonctions peuvent voir leur temps d'exécution multiplié par 1,7. La casse semble donc rester limitée, ce qui est assez rassurant au vu du prix des bouzins !

 

meltdown logo

Un poil avant ?

Comptoiroscope • Match AnvilNext avec Assassin's Creed Origins vs Syndicate

Un peu plus tard ...

Des Coffee Lake H et Xeon mobile aussi en balade sur la toile !

Les 13 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un #ragoteur déconnecté embusqué, le Lundi 22 Janvier 2018 à 12h58  
par Un ragoteur macagneur embusqué, le Samedi 20 Janvier 2018 à 17h41
J'avais lu il y a quelques temps un article indiquant que le milieu scientifique tirait très peu profit du multithreading... l'impact de Meltdown devrait être significatif dans ce domaine et s'il ne l'est pas, ceci indique que les applications scientifiques sont soient codées avec les pieds ou ne méritent pas du matériel aussi onéreux.
Le SMT ne sert pas à grand chose si tu optimises réellement pour l'architecture du CPU, chez le grand public c'est surtout le saccage du soft qui a donné l'illusion qu'il était utile sur le P4, et ça a continué tout bêtement dans cette direction (2N "cores" lents > N cores 2x plus rapides individuellement, c'est une sérieuse anomalie qu'on ne doit qu'aux pénalités liées au threading).
par Un ragoteur Gaulois embusqué, le Lundi 22 Janvier 2018 à 10h42  
A noter que pour des calculateurs n'acceptant pas de programmes en provenance de l'extérieur ( je doute que Météo France, le CEA ou l'Armée ouvrent leurs calculateurs à des programmes non vérifiés, voire à de quelconques programmes non "maison" ), la mise en oeuvre des contournements contre Meltdown et Spectre sont parfaitement inutiles, ce qui permet de ne pas perdre de performances.
par Un médecin des ragots embusqué, le Lundi 22 Janvier 2018 à 09h48  
par Un rat goth à l'heure embusqué, le Dimanche 21 Janvier 2018 à 15h01
Mais alors à quoi servent et qui utilise les supercalculateurs et les stations de travail, fermes de rendu etc ?
Tu ne serais pas Mr 2500K for Ever ?
Le domaine des prévisions météorologiques est assez demandeur de puissance de calcul.
par Popa embusqué, le Lundi 22 Janvier 2018 à 09h15  
Heu ... ils avaient rien de plus récent en noeuds ? OK je dois encore assurer la maintenance sur des clusters avec des 5420 qui sont encore plus vieux mais tout le monde n'est pas aussi mal doté que les université Françaises non ?
par Un ragoteur charitable embusqué, le Dimanche 21 Janvier 2018 à 20h47  
par Un champion du monde embusqué, le Dimanche 21 Janvier 2018 à 18h22
Le monde scientifique ne se résume pas aux supercalculateurs. Faut-il réellement un supercalculateur pour évaluer un algorithme quelconque (e.g. décodage h265)? Le monde scientifique ce n'est pas que de la performance brute, c'est aussi expérimental.
"ce n'est pas que de la performance brute, c'est aussi expérimental." lol
par Un champion du monde embusqué, le Dimanche 21 Janvier 2018 à 18h22  
par Un rat goth à l'heure embusqué, le Dimanche 21 Janvier 2018 à 15h01
Mais alors à quoi servent et qui utilise les supercalculateurs et les stations de travail, fermes de rendu etc ?
Tu ne serais pas Mr 2500K for Ever ?
Le monde scientifique ne se résume pas aux supercalculateurs. Faut-il réellement un supercalculateur pour évaluer un algorithme quelconque (e.g. décodage h265)? Le monde scientifique ce n'est pas que de la performance brute, c'est aussi expérimental.
par Un ragoteur charitable embusqué, le Dimanche 21 Janvier 2018 à 15h28  
par Un rat goth à l'heure embusqué, le Dimanche 21 Janvier 2018 à 15h01
Mais alors à quoi servent et qui utilise les supercalculateurs et les stations de travail, fermes de rendu etc ?
Tu ne serais pas Mr 2500K for Ever ?
Ça dépend du type de calcul et du matériel que tu as mais globalement, c'est faux. Le "monde scientifique" (ce qui est très vague, comme dénomination) utilise des petites et moyennes stations de calculs avec beaucoup de GPUs. En ce sens oui, le multicoeurs sur un processeurs, n'a pas d'importance. Mais il y a aussi de plus grosse machines sans GPUs, avec uniquement des processeurs, des centaines/milliers. Avoue que ce serait con de na pas en exploiter tous les cœurs hein.
par Un rat goth à l'heure embusqué, le Dimanche 21 Janvier 2018 à 15h01  
par Un ragoteur macagneur embusqué, le Samedi 20 Janvier 2018 à 17h41
J'avais lu il y a quelques temps un article indiquant que le milieu scientifique tirait très peu profit du multithreading... l'impact de Meltdown devrait être significatif dans ce domaine et s'il ne l'est pas, ceci indique que les applications scientifiques sont soient codées avec les pieds ou ne méritent pas du matériel aussi onéreux.
Mais alors à quoi servent et qui utilise les supercalculateurs et les stations de travail, fermes de rendu etc ?
Tu ne serais pas Mr 2500K for Ever ?
par UpsiloNIX, le Dimanche 21 Janvier 2018 à 14h35  
par Un ragoteur macagneur embusqué, le Samedi 20 Janvier 2018 à 17h41
C'est surtout très inquiétant pour les coûts salariaux!

J'avais lu il y a quelques temps un article indiquant que le milieu scientifique tirait très peu profit du multithreading... l'impact de Meltdown devrait être significatif dans ce domaine et s'il ne l'est pas, ceci indique que les applications scientifiques sont soient codées avec les pieds ou ne méritent pas du matériel aussi onéreux.
"Milieu scientifique" c'est large. J'ai travaillé pendant 3 ans dans un labo de recherche en informatique, je peux te dire que le multi-coeur était exploité. On s'orientait même de plus en plus vers du GPGPU.
par Un ragoteur Gaulois embusqué, le Samedi 20 Janvier 2018 à 19h26  
par Un adepte de Godwin embusqué, le Samedi 20 Janvier 2018 à 16h52
Dans les gros calculs on évite en général d'intéragir avec le disque puisque celui-ci est très lent. Donc sauf pour les phases de lecture de fichier contenant des paramètres (au début de l'exécution de l'application) et pour l'écriture des résultats (à la fin) on ne devrait pas avoir un ralentissement.
Oui et non...
Pour les gros ordinateurs avec de la mémoire distribuée (NUMA), un coeur en train de faire un calcul peut avoir besoin de RAM sur une carte distante raccordée... par le réseau.
Problème: les interruptions matérielles résultant de la réception de paquets sur le réseau, ainsi que les appels système au pilote de la carte réseau sont également ralentis par l'isolation des pages mémoire du noyau (KPTI) qui permet de mitiger Meltdown...

 
Après je parle seulement de Meltdown dont le correctif a pour conséquence un surcoût de temps lors d'un appel système.
Concernant Spectre je ne sais pas si les retpolines impliquent un surcoût.

Ils impliquent bien une perte de performances, mais plutôt un pourcentage à 1 chiffre, au contraire de KPTI...
par Un ragoteur macagneur embusqué, le Samedi 20 Janvier 2018 à 17h41  
 

Les résultats sont plutôt contrastés : si la majorité des applications n'utilisant qu'un noeud subit un ralentissement de 2 à 3% (contre 5 à 11% pour les applications multi-noeud), certaines fonctions peuvent voir leur temps d'exécution multiplié par 1,7. La casse semble donc rester limitée, ce qui est assez rassurant au vu du prix des bouzins !


C'est surtout très inquiétant pour les coûts salariaux!

J'avais lu il y a quelques temps un article indiquant que le milieu scientifique tirait très peu profit du multithreading... l'impact de Meltdown devrait être significatif dans ce domaine et s'il ne l'est pas, ceci indique que les applications scientifiques sont soient codées avec les pieds ou ne méritent pas du matériel aussi onéreux.
par Un adepte de Godwin embusqué, le Samedi 20 Janvier 2018 à 16h52  
Dans les gros calculs on évite en général d'intéragir avec le disque puisque celui-ci est très lent. Donc sauf pour les phases de lecture de fichier contenant des paramètres (au début de l'exécution de l'application) et pour l'écriture des résultats (à la fin) on ne devrait pas avoir un ralentissement.

Après je parle seulement de Meltdown dont le correctif a pour conséquence un surcoût de temps lors d'un appel système.
Concernant Spectre je ne sais pas si les retpolines impliquent un surcoût.