COMPTOIR
  
register

Intel Stratix 10 : un FPGA à puces ARM 14nm avec HBM2

Qui a dit qu'Intel ne jurait que par le x86 ? Le géant bleu s'est offert Altera, spécialiste du FPGA (ou Circuit Logique Programmable pour les francophones), et les projets à son sujet ont donné naissance au Stratix 10, une puce essentiellement destinée aux centres de données qui va venir casser les pieds de Google qui essayait de se séparer d'Intel (ou tout du moins de lui faire baisser ses prix en essayant de faire marcher la concurrence).

 

Dans le Stratix 10, on a un coeur ARM (quatre coeurs Cortex A53) gravé grâce au procédé 14nm Tri-Gate d'Intel accompagné de quatre empilements de HBM2 (ce qui vous fera comprendre pourquoi cette nouvelle mémoire est pour l'instant coûteuse et en quantité limitée sur le marché des GPU). Ça donne 5,5 millions d'éléments logiques programmables par puce, avec une nouvelle architecture nommée HyperFlex qui devrait, sur le papier, augmenter le rendement de cinq fois par rapport aux précédentes générations. Intel annonce des performances de l'ordre de 10TFLOPS en calcul simple précision avec un rapport de 80GFLOPS/watt grâce à la gravure en 14nm Tri-Gate qui permet d'économiser de l'énergie. En bref, Intel a réussi à sortir un nouveau SoC qui lui assure d'être incontournable sur ce marché et la concurrence va devoir se retrousser les manches pour tenir la cadence. Comme quoi, avec plein de ronds et les bonnes technologies, on peut sortir de bons produits. (source : PC Perspective)

 

intel altera stratix 10

Un poil avant ?

GPU-Z, 3DMark FireStrike et Time Spy pour la GTX 1050Ti

Un peu plus tard ...

Une série de mobales Apollo Lake chez ASRock

Les 16 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur de transit d'Ile-de-France, le Mardi 11 Octobre 2016 à 20h06  
Qu'est ce qu'il vaut mieux : un FPGA ou un GPU ?
L'avantage du FPGA sur le GPU c'est qu'il se reconfigure, mais en situation qui est le plus performant.

Je me demande s'il existe des benchs comparant ces deux technologies sur des applications similaires.
par Un rat goth à l'heure d'Ile-de-France, le Mardi 11 Octobre 2016 à 15h50  
C'est quand même de l'Altera à la base, pas du Intel... En plus, la conception d'une puce de cette complexité a dû démarrer il y a un peu de temps déjà, les A72 n'étaient sans doute pas dispo au démarrage. D'ailleurs, ce n'est pas forcément que pour les datacentres.

En face, chez Xilinx, il y a du lourd aussi:
https://www.xilinx.com/products/silicon-devices/soc/zynq-ultrascale-mpsoc.html
- Quad A53
- ARM R5 pour le temps réel,
- GPU Mali,
- Blocs logiques reconfigurables (avec blocs DSP, RAM, etc.)

Reste à voir ce que le fameux Xeon/Arria dans le ventre pour les datacentres...
par Un ragoteur 'ArthaX' du Centre, le Mardi 11 Octobre 2016 à 13h58  
par Un ragoteur blond de Rhone-Alpes, le Mardi 11 Octobre 2016 à 13h19
L'A72 est bien 64 bit aussi, tu confonds avec l'ancien A7 et l'A73 est beaucoup plus prometteur d'ailleurs car c'est le remplaçant de l'A17 en bien plus puissant bien sur consommant beaucoup moins.
Non, non, je parle bien du Cortex-A7 32bits. Il peut faire le boulot du Cortex-A53, mais son architecture 32bits aurait été un handicape pour manipuler les données 64bits. Et aussi sa lenteur pour les E/S l'aurait aussi desservi.
Dans cette puce d'Intel, les coeurs A53 est juste là pour jouer au chef d'orchestre. Il ne joue d'aucun instrument.
@++
par Un ragoteur blond de Rhone-Alpes, le Mardi 11 Octobre 2016 à 13h19  
par Un ragoteur 'ArthaX' du Centre, le Mardi 11 Octobre 2016 à 10h53
Ici l'A53 ne sert que de gare de triage. Il envoie les données aux unités de calculs et stocke les résultats là où ils doivent être sauvegardé.
Son avantage par rapport à l'A7, c'est qu'il est 64bits.
@++
L'A72 est bien 64 bit aussi, tu confonds avec l'ancien A7 et l'A73 est beaucoup plus prometteur d'ailleurs car c'est le remplaçant de l'A17 en bien plus puissant bien sur consommant beaucoup moins.
L'A73 c'est l'A72 en low profile big little mais pourtant bien plus puissant que l'A72.
On est a quelques mois de 2017, choisir de l'A73 aurait été plus judicieux.
Mais peu être que le prix n'aurait pas été le même.
Surement en 2017, il y aura des déclinaisons en A73 en 10 nm, Intel a intérêt de ne pas trainer la dessus car la concurrence...
par Un ragoteur 'ArthaX' du Centre, le Mardi 11 Octobre 2016 à 10h53  
par Un rat goth à l'heure de Lorraine, le Mardi 11 Octobre 2016 à 08h14
Je bloque sur le fait qu'ils aient utilisé des A53... ces cores ne sont pas du tout les meilleurs ARM, ni au niveau des perfs pures, ni au niveau de l'efficacité énergétique (l'A72 fait mieux si on ne le pousse pas dans ses derniers retranchements, me semble bien que c'était déjà le cas de l'A57...)
Ici l'A53 ne sert que de gare de triage. Il envoie les données aux unités de calculs et stocke les résultats là où ils doivent être sauvegardé.
Son avantage par rapport à l'A7, c'est qu'il est 64bits.
@++
par Un rat goth à l'heure de Lorraine, le Mardi 11 Octobre 2016 à 08h14  
Je bloque sur le fait qu'ils aient utilisé des A53... ces cores ne sont pas du tout les meilleurs ARM, ni au niveau des perfs pures, ni au niveau de l'efficacité énergétique (l'A72 fait mieux si on ne le pousse pas dans ses derniers retranchements, me semble bien que c'était déjà le cas de l'A57...)

Le seul intérêt de l'A53, c'est qu'il consomme peu en utilisation light (du fait de son archi simplifiée), ce qui le rend plutôt intéressant pour un smartphone ou une tablette mais nulle part ailleurs.

Après, concernant les 10TFlops, ça pue la comptabilisation d'un DSP ultra-spécialisé façon Creative Labs avec ses EMU et la décomposition en "code équivalent" de fonctions tordues mais très simples à implémenter qu'on ne câble nulle part ailleurs car globalement inutiles.
par gusamurai, le Mardi 11 Octobre 2016 à 06h36  
Ok ils jouent sur le monopole mais ils ne s'endorment pas non plus totalement sur leurs lauriers. Avec des puces avec un tel rapport perf/confo google y gagne aussi... Moins que si ils avaient pu tordre les prix mais quand même.
par Un ragoteur 'ArthaX' du Centre, le Mardi 11 Octobre 2016 à 01h11  
C'est plus pour les serveurs qui ont besoin de faire des calculs très précis. Les voitures autonomes par exemple.
Mais pour allez dans des NAS ou SAN, ou encore dans des imprimantes, c'est pas ce type puce. Pour les serveurs WEB, de plus en plus on voit des ARM, non pas parce que c'est puissant, mais c'est juste que c'est adéquate pour la fonction. Il y en a qui utilisent des serveurs à 200W, alors que une carte ARM à 5W peut faire le boulot. Et là c'est les MIPS et les E/S qui comptent et pas les FLOPS, ou à peine pour 1 ou 2%.
Mais c'est bien que Intel s'y mette.
@++
par erebos007, le Lundi 10 Octobre 2016 à 21h06  
par Un ragoteur foufou d'Ile-de-France, le Lundi 10 Octobre 2016 à 17h51
Les ARM sont en dur. C'est un FPGA comprenant un ensemble de coeurs A53 directement couplés à la logique programmable.
, les SoPCs sont en softcore, ici c'est un SoC FPGA
par Shenron67, le Lundi 10 Octobre 2016 à 19h40  
par Scrabble, le Lundi 10 Octobre 2016 à 17h07
10 TFLOPS c'est énorme, pour info le i7-3770 c'est 0,2 TFLOPS source
C'est pour ça que les constructeurs ne se pressent pas pour augmenter le nombre de coeurs des CPU classiques, ça serait plus ou moins inutile pour le grand public, l'avenir ce sont les unités de calcul optimisées pour le parallèle massif, comme les GPU par exemple.

Dans l'avenir la frontière entre hardware et software sera de plus en plus floue, avec des unités de calcul de plus en plus optimisées pour résoudre un problème software particulier.
C'est assez "amusant" vu qu'avant on avait des unités spécialisées dans les GPU qui ont été remplacé par les "core" actuels
par Un ragoteur foufou d'Ile-de-France, le Lundi 10 Octobre 2016 à 17h51  
par erebos007, le Lundi 10 Octobre 2016 à 16h17
Pas un SOC mais plutôt un SOPC, non ?
Les ARM sont en dur. C'est un FPGA comprenant un ensemble de coeurs A53 directement couplés à la logique programmable.
par Zoroastre, le Lundi 10 Octobre 2016 à 17h15  
par Scrabble, le Lundi 10 Octobre 2016 à 17h07
10 TFLOPS c'est énorme, pour info le i7-3770 c'est 0,2 TFLOPS source
C'est pour ça que les constructeurs ne se pressent pas pour augmenter le nombre de coeurs des CPU classiques, ça serait plus ou moins inutile pour le grand public, l'avenir ce sont les unités de calcul optimisées pour le parallèle massif, comme les GPU par exemple.

Dans l'avenir la frontière entre hardware et software sera de plus en plus floue, avec des unités de calcul de plus en plus optimisées pour résoudre un problème software particulier.
Un GPU comme le Radeon Fury c'est 8Tflop par exemple je crois. l'avantage de ce type de soc c'est avant tout la programmabilité que la performance pur