COMPTOIR
register

Des milliards pour Q4 2017 chez Intel à l'ombre de Meltdown et Spectre

Intel a annoncé ses derniers chiffres concluant une année 2017 assez exceptionnelle, le dernier trimestre de l'année aura connu une hausse de 8% du chiffre d'affaires soit un revenu de 17,1 milliards de dollars, aidés par des segments data-centres, FPGA et IoT à la fête ! Sur l'année 2017 entière, le revenu d'Intel aura ainsi cumulé 62,8 milliards de $, soit une croissance non négligeable de 9%.

Évidemment, c'est trop tôt pour voir des effets quelconques des failles Meltdown et Spectre découvertes en juin et publiées début janvier; certains analystes s'attendent à un impact négatif pour Intel, d'autres beaucoup moins, surtout considérant la domination sans partage dont jouit encore Intel. Et, aller voir ailleurs n'est pas toujours l'option la plus simple ni le choix le plus facile à faire surtout dans le domaine professionnel.

 

intel meltdown spectre inside

 

Quoi qu'il en soit, Intel avait commencé sa présentation en annonçant par l’intermédiaire du CEO Brian Krzanich (lui aussi un peu en eaux troubles) que des processeurs corrigés matériellement commenceront à arriver en 2018, sans trop de précisions. Mais on peut supputer qu'il s'agit ici des prochains processeurs gravés en 10nm. Cependant, le 14 nm n'est pas encore en fin de vie, et selon le CEO, la compagnie prévoit de continuer à développer ses produits en 14 nm durant l'année, signifiant qu'il est tout à fait possible de voir arriver une énième fournée de CPU en 14 nm, mais cette fois-ci hypothétiquement protégée de Meltdown et Spectre avec des patchs matériels.

Toutefois, il y aurait de quoi être surpris de voir Intel sortir des processeurs à l'architecture corrigée aussi rapidement, bien que le fondeur aura eu depuis juin pour se préparer, mais au vu la manière dont l'histoire des patchs est en train de se dérouler, il est raisonnable de considérer la chose avec prudence, surtout en ce qui concerne d’éventuels CPU en 14nm corrigés matériellement. Hélas, Intel est resté très vague en détail autour de ces annonces !

 

intel resultats financier 2017 q4 copie

 

Certains analystes y voient toutefois aussi une opportunité de rentrée d'argent supplémentaire pour Intel sur l’exercice de 2018, précisément lorsque particulier et entreprise chercheront à remplacer leur matériel pour du neuf libre des failles M & S. Quant à la question si Intel est mis sous pression par AMD, le CEO n'y a évidemment pas répondu directement et a encore moins mentionné le nom de son concurrent AMD. Mais Intel sait sûrement très bien que la menace Ryzen /Ryzen +/ Ryzen 2 ne peut être ignorée, et le faire serait fort certainement une grossière erreur, sachant qu'Intel a déjà perdu 5% du volume de vente de processeur desktop sur l'ensemble de 2017.

 

Pour en revenir au 10nm, dont l'introduction en masse est attendue via Icy Lake, Intel nous a rappelé que des CPU gravés en 10nm ont bien commencé à être distribué dès la fin 2017 en petite quantité, mais aussi que la production de masse ne démarrera qu'en milieu d'année 2018. La date de sortie pour Icy Lake semble donc se dessiner pour la fin 2018, probablement à commencer par les CPU destinés aux OEM et à la mobilité, en attendant d'avoir les stocks suffisants pour un lancement global. D'ailleurs, rien n’exclut que celui-ci puisse prendre place au prochain CES 2019. Là encore, Intel n'en dit pas plus pour le moment.

Enfin, il est intéressant de noter qu'Intel a fortement accru ses dépenses d'investissements en recherche et développement dans les domaines des GPU, de l'IA et l'automobile, mais qu'aucune mention - financièrement parlant - n'a été  faite par rapport au Core and Visual Computing Group récemment constitué et dirigé par Raja Koduri, l'ex-patron du RTG (qu'AMD a enfin réorganisé). S'agit-il là de la prise de risques dont Intel causait dernièrement

 

intel resultats financier 2017 revenue 2016

 

Bref pour conclure, Intel se veut rassurant et clairement montrer que Meltdown et Spectre lui en touchent une sans faire bouger l'autre, du moins financièrement, la compagnie ne s'attend ainsi a aucun impact conséquent à court et long terme ni à des dépenses et des coûts de production supplémentaires. Tout  va bien, Madame la marquise ! De toute façon, il faut reconnaître que la position du géant reste dans l'ensemble outrageusement confortable. La semaine prochaine, ce sera au tour d'AMD - le concurrent dont on ne doit pas prononcer le nom - d'annoncer ses chiffres et nous verrons bien comment celui-ci se porte en comparaison. (Source : Tom's / SmarterAnalyst)

Un poil avant ?

En cabine • 4 ou 8 Go de VRAM pour jouer en 2018 ?

Un peu plus tard ...

Du polaris chez ... Microsoft ?

Les 12 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur macagneur embusqué, le Dimanche 28 Janvier 2018 à 18h43  
Je suis pour le droit à l'erreur mais là ça fait beaucoup de la part d'une boite qui a suffisamment de moyens techniques et financiers pour éviter de commettre autant de boulettes. Boulettes qui parfois frisent plus la malversations et le défaut de sécurisation que le simple " on ne peut pas tout prévoir ".
Évidemment que si des effets négatifs devaient se faire sentir et que tous ces problèmes devaient avoir des répercussions sur les bénéfices et le chiffre d'affaire, ça ne se verra pas avant un petit moment.
Le comble c'est que les utilisateurs sont devenus si dépendants aux produits et services de cette société qu'une bonne partie des mécontents d'aujourd'hui repasseront certainement à la caisse dès qu'Intel mettra sur le marché des composants garantis sans failles inside. Et même pas sur qu'ils fassent un petit geste commercial pour redorer leur blason.
par Un champion du monde embusqué, le Dimanche 28 Janvier 2018 à 15h05  
 

C'est d'ailleurs le handicap majeur de Ryzen face aux CPU d'Intel en ce moment: il est trop lent en mono-thread, à cause de sa fréquence max 30 à 40% trop basse.


Les problèmes de Ryzen son multiples mais offre des contre-partie. La multiplication des dies permet de limiter les rebuts de production bien que leurs interconnexions engendre une contre-performance (cf. accès au contrôleur mémoire). Cela ne devrait pas être le cas pour Raven Ridge, les prochains tests nous en diront plus. De plus, historiquement les architectures AMD ont toujours été en retrait par rapport à Intel essentiellement à cause d'un retard (i.e. yield) de ses fonderies (i.e. Global Founderies).

 

Pas forcément (ex: Threadripper et son quadruple-die). Par ailleurs un procédé "3D" est également particulièrement coûteux, surtout quand les différentes states sont complexes (i.e. pas de la vulgaire 3D NAND avec de simples couches de cellules identiques empilées).


C'est sans doute coûteux d'empiler des couches complexes (e.g. 14 nm multigate) mais beaucoup moins pour des couches relativement simple (e.g. 28 nm singlegate).

Néanmoins, je conviens que multiplier le nombre de transistors d'une puce pour un flat design ou par empilement génère un surcoût considérable. Par conséquent, il est également important d'optimiser l'usage de capital transistor par puce.
par Un champion du monde embusqué, le Dimanche 28 Janvier 2018 à 14h53  
par Un rat goth à l'heure embusqué le Dimanche 28 Janvier 2018 à 09h22
Vous suggérez donc une régression des performances, car sur tous les logiciels que vous faites tourner, combien sont capables d'utiliser plusieurs coeurs ?...
Pas nécessairement. Il existe bien une gestion dynamique des coeurs pour un flat design à TDP fixé, ce qui ne devrait être sensiblement la même chose par empilement malgré une faiblesse de la dissipation thermique par couche interposée.

 

Parmi eux, combien bénéficieraient effectivement de plus de 4 coeurs ?... 5% ?
Tous les autres logiciels (95%, donc) tourneraient plus lentement.


D'un autre côté les applications gourmandes en calcul ne sont pas légions et sont bien souvent liées au domaine graphique ou plus généralement au calcul vectoriel.
par Un ragoteur critique embusqué, le Dimanche 28 Janvier 2018 à 13h47  
Le titre de cet article implique que les vulnérabilités des CPU modernes, et en particulier Meltdown qui touche principalement Intel, auraient dû entraîner des pertes sèches (ou du moins un moindre bénéfice) dans les revenus de ce dernier.

Bien que ces pertes ne soient pas sensibles sur le dernier trimestre 2017 (durant lequel Intel (et les autres fondeurs) a (ont) joué le rôle de l'autruche), gageons que les poursuites judiciaires ("class actions" aux US, en particulier) pèseront tout de même sur les résultats de 2018.
Et ce ne serait que justice ! Bien que ces vulnérabilités soient anecdotiques pour le commun des mortels (pour lequel les virus et autres "malwares" sont bien plus dangereux et communs), elles représentent un sacré handicap pour les entreprises (et en particulier celles du Net) qui auraient tout lieu d'intenter des procès à Intel (et AMD, pour Spectre) !

Gageons cependant que des accords juteux seront conclus, effaçant du même coup l'ardoise pourtant chargée d'Intel & Co...

Il n'y a pas de justice en ce bas monde, en tout cas pas pour les puissants, hélas.
par Un rat goth à l'heure embusqué, le Dimanche 28 Janvier 2018 à 09h22  
par Un médecin des ragots embusqué le Samedi 27 Janvier 2018 à 22h52
Je suggère une solution pour augmenter la densité que réclame les fanatiques du multicoeurs à outrance. Je n'ai jamais prétendu que chaque coeur devait fonctionner @4Hz+.
A moins de réduire la fréquence et la tension d'alimention des coeurs pour utilisation multicoeurs massive.
Vous suggérez donc une régression des performances, car sur tous les logiciels que vous faites tourner, combien sont capables d'utiliser plusieurs coeurs ?...
Parmi eux, combien bénéficieraient effectivement de plus de 4 coeurs ?... 5% ?
Tous les autres logiciels (95%, donc) tourneraient plus lentement.

C'est d'ailleurs le handicap majeur de Ryzen face aux CPU d'Intel en ce moment: il est trop lent en mono-thread, à cause de sa fréquence max 30 à 40% trop basse.

 

Cela génére un surcoût considérable par unité de surface.

Pas forcément (ex: Threadripper et son quadruple-die). Par ailleurs un procédé "3D" est également particulièrement coûteux, surtout quand les différentes states sont complexes (i.e. pas de la vulgaire 3D NAND avec de simples couches de cellules identiques empilées).
par Un médecin des ragots embusqué, le Samedi 27 Janvier 2018 à 22h52  
par Un rat goth à l'heure embusqué le Samedi 27 Janvier 2018 à 18h26
Donc, vous suggérez de quadrupler la dissipation thermique par unité de surface...
Je suggère une solution pour augmenter la densité que réclame les fanatiques du multicoeurs à outrance. Je n'ai jamais prétendu que chaque coeur devait fonctionner @4Hz+.

 

Je ne vois pas comment cela pourrait fonctionner mieux et chauffer moins, et il va falloir des ventirad de course (genre dragster comparé à une voiture de sport qui représenterait les meilleurs ventirads d'aujourd'hui).


A moins de réduire la fréquence et la tension d'alimention des coeurs pour utilisation multicoeurs massive.

 

Pour une bonne dissipation thermique il faut au contraire diminuer la puissance dissipée par unité de surface !


Cela génére un surcoût considérable par unité de surface.
par Un rat goth à l'heure embusqué, le Samedi 27 Janvier 2018 à 18h26  
par Un ragoteur sans nom embusqué le Samedi 27 Janvier 2018 à 17h40
Si le but est d'entasser un max de coeurs inutiles sur une surface réduite, il est sans doute moins coûteux de le réaliser par empilement verticale en optimisant l'architecture au mieux pour la dissipation thermique par convection naturelle.
Ainsi il serait possible de produire un pseudo 7 nm (vive le marketing des fondeurs) à base de 28 nm sur 4 couches.
Donc, vous suggérez de quadrupler la dissipation thermique par unité de surface...
Je ne vois pas comment cela pourrait fonctionner mieux et chauffer moins, et il va falloir des ventirad de course (genre dragster comparé à une voiture de sport qui représenterait les meilleurs ventirads d'aujourd'hui).

Pour une bonne dissipation thermique il faut au contraire diminuer la puissance dissipée par unité de surface !
par Un ragoteur sans nom embusqué, le Samedi 27 Janvier 2018 à 17h40  
 

Cependant, le 14 nm n'est pas encore en fin de vie, et selon le CEO, la compagnie prévoit de continuer à développer ses produits en 14 nm durant l'année, signifiant qu'il est tout à fait possible de voir arrivé une énième fournée de CPU en 14 nm, mais cette fois-ci hypothétiquement protégé de Meltdown et Spectre avec des patchs matériels.


De toute façon en dessous de 28 nm, la réduction du die n'apporte aucun gain de performance.

Si le but est d'entasser un max de coeurs inutiles sur une surface réduite, il est sans doute moins coûteux de le réaliser par empilement verticale en optimisant l'architecture au mieux pour la dissipation thermique par convection naturelle.

Ainsi il serait possible de produire un pseudo 7 nm (vive le marketing des fondeurs) à base de 28 nm sur 4 couches.
par Un ragoteur charitable embusqué, le Samedi 27 Janvier 2018 à 16h34  
par Un ragoteur de transit embusqué le Samedi 27 Janvier 2018 à 16h28
Tu as partiellement raison: oui ils investissent mais ils ont aussi la partie fab à financer.
En gros il faudrait déterminer la part fabless d'Intel pour comparer.
C'est pas en soustrayant les frais de fonctionnement des usines que t'arriveras à démontrer qu'ils n'investissent rien dans la recherche et le développement de nouvelles technologies et architectures.
par Un ragoteur de transit embusqué, le Samedi 27 Janvier 2018 à 16h28  
par UpsiloNIX le Samedi 27 Janvier 2018 à 16h00
C'est vrai qu'ils ne dépensent que 12,7 Milliards en 2016, loin devant les autres fabriquants de puces (Qualcomm 2nd avec 5,1 milliards).
Je veux bien qu'on soit Intel hater, mais il ne faut pas raconter n'importe quoi non plus.
Tu as partiellement raison: oui ils investissent mais ils ont aussi la partie fab à financer.
En gros il faudrait déterminer la part fabless d'Intel pour comparer.
par UpsiloNIX, le Samedi 27 Janvier 2018 à 16h00  
par Un adepte de Godwin embusqué le Samedi 27 Janvier 2018 à 15h04
C'est sur que quand on met pas une thune en R&D et que on peut se le permettre le fric coule à flots ...
C'est vrai qu'ils ne dépensent que 12,7 Milliards en 2016, loin devant les autres fabriquants de puces (Qualcomm 2nd avec 5,1 milliards).
Je veux bien qu'on soit Intel hater, mais il ne faut pas raconter n'importe quoi non plus.
par Un adepte de Godwin embusqué, le Samedi 27 Janvier 2018 à 15h04  
C'est sur que quand on met pas une thune en R&D et que on peut se le permettre le fric coule à flots ...