COMPTOIR
register

Intel et les Atom : 22nm en 2013 et 14nm en 2014

Intel semble avoir décidé de mettre les bouchées doubles pour améliorer la finesse de gravure de ses processeurs Atom SoC, comme en témoigne une roadmap qui circule actuellement sur le net. Ce ne sera pas un mal, puisque pour rappel les Atom actuels sont toujours gravés en 45nm, et c'est seulement en fin d'année que le 32nm sera inauguré sur cette gamme de CPU avec l'arrivée du core Saltwell.

Viendra ensuite le 22nm (tri-gate), avec toujours un certain retard pour les Atom SoC sur les plateformes desktop. Ivy Bridge devrait étrenner cette finesse de gravure mi-2012 tandis que Silvermont fera son apparition pour les Atom en 2013. En revanche, et c'est là que l'annonce est importante, Intel annonce d'ores et déjà que le 14nm suivra pour les plateformes desktop en 2014 et... la même année pour les Atom avec Airmont !

La loi de Moore est dans les choux puisque cette roadmap annonce des changements pour la gamme SoC près de deux fois plus rapide que la "théorie", un challenge qu'Intel veut relever pour s'implanter en force dans le monde de l'ultramobilité des tablets et smartphones.

 

atom_roadmap_14nm.jpg  

Un poil avant ?

Nouveau firmware OCZ pour les SSD Vertex 3, Agility 3 et Solid 3

Un peu plus tard ...

L'Asus Sabertooth en 990FX déjà photographiée !

Les 22 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui revient, le Jeudi 19 Mai 2011 à 10h22  
par Petalpusher le Jeudi 19 Mai 2011 à 09h16
Et puis il y a une autre raison toute simple maintenant c'est qu'il faut un sacrée puissance de calcul pour faire la litho. On va arriver à un moment ou il faudra presque faire des farm de la gen precedente pour calculer le moule de la suivante
C'est déjà plus ou moins le cas... il faut simuler le fonctionnement et ensuite effectuer le routage, rien que ces 2 tâches doivent monopoliser pas loin d'1 an.
par Petalpusher, le Jeudi 19 Mai 2011 à 09h16  
Ne serait ce qu'au niveau de la lithographie, on pensait il y a peu encore, pas aller au dela de 20nm avant de passer à de la litho par UV extreme, donc c'est une bataille de chaque instant pour avancer au même rythme, même passé les 10nm il risque d'y avoir un gros switch technologique.
Et puis il y a une autre raison toute simple maintenant c'est qu'il faut un sacrée puissance de calcul pour faire la litho. On va arriver à un moment ou il faudra presque faire des farm de la gen precedente pour calculer le moule de la suivante
par non pas de complots, le Jeudi 19 Mai 2011 à 07h43  
par Un ragoteur inspiré le Mercredi 18 Mai 2011 à 21h14
Comment ca se fait qu'on arrive que maintenant à 22nm? pourquoi c'était pas possible il y a 10 ans?
Est ce une stratégie marketing pour nous faire dépenser chaque année?
C'est quand même bizarre de progresser aussi régulièrement...
Ben en fait à chaque nouvelle finesse de gravure on a de nouveaux problèmes qui se posent que les ingénieurs résolvent en modifiant les process de fabication et on en est ainsi au tri gate, après le silicon on insulator etc. Juste prendre une galette de silicone d'il y a dix ans et la passer dans la machine à graver en 22nm ne fonctionnerait pas du tout, il y aurait des fuites électriques de partout.
par Un ragoteur de passage, le Jeudi 19 Mai 2011 à 07h01  
Et le "Wall" on en fait quoi ?
par Alandu14, le Jeudi 19 Mai 2011 à 04h40  
par Petalpusher le Jeudi 19 Mai 2011 à 00h08
Les puces mobiles faut pas du tout comparer avec ce qui se fait en desktop, c'est des architectures designés presque entierement pour la conso, il suffit pas de shrinker des processeurs desktop ou portable pour en faire du mobil performant. C'est pour ca que ARM s'en sort bien, technologiqement ils ont pas d'avance, mais ils savent designer pour du mobile.
Intel veut s'y mettre sérieusement mais c'est un tout autre monde et des compétences qui n'ont plus grand chose à voir avec ce que fait Intel généralement.
En effet, et 2-3W c'est déjà trop, disons que ça doit représenter la consommation maximale d'un téléphone, écran au max en luminosité+Wi-Fi+internet+musique+bluetooth etc...
Il faudrait que l'Atom puisse se désactiver au fur et à mesure, et là on en reparlerait...
par Petalpusher, le Jeudi 19 Mai 2011 à 00h08  
par BsOd57 le Mercredi 18 Mai 2011 à 21h48
Oui c'est sûr, il n'aurait pas été sérieux de passer du 120nm au 14nm, surtout que là les finesse de gravures suivent une progression en 1/x (pas trouvé de termes français sorry ).

En revanche on connait la bataille entre ARM et x86, mais pourquoi intel ne peut pas sortir genre un atom modifié (un dual core + hyperthreading) mais à genre 600MHz avec un très faible vcore ??, sa ne devrait pas dépasser les 2 à 3 watts de TDP, cela ne pourrait pas convenir à un smartphone ?
Les puces mobiles faut pas du tout comparer avec ce qui se fait en desktop, c'est des architectures designés presque entierement pour la conso, il suffit pas de shrinker des processeurs desktop ou portable pour en faire du mobil performant. C'est pour ca que ARM s'en sort bien, technologiqement ils ont pas d'avance, mais ils savent designer pour du mobile.
Intel veut s'y mettre sérieusement mais c'est un tout autre monde et des compétences qui n'ont plus grand chose à voir avec ce que fait Intel généralement.
par Un ragoteur "ArthaX", le Mercredi 18 Mai 2011 à 23h53  
Honnêtement, un Atom n'arrivera pas à concurrencer un ARM dans les mobiles. Un SOC ARM Cortex A9 consomme 1,9W à 1,5GHz. un Atom pour faire la même chose consomme 8W, attention, là je parle d'un Atom castré.
Les prévision c'est que ARM Cortex A9 quatre cœurs à 1,25GHz sera à 1,8W pour la fin de l'année 2011. Par contre je ne sais pas si c'est du 32nm ou du 28nm.
Là où l'ARM risque de prendre des parts de marché, c'est les versions serveur, deux cœurs à 2,5GHz et 2,25W en 32nm. Un de mes collègues est en train de bosser dessus pour faire la couche d'hypervision pour un client, sur un prototype. Le client met 320 Atom dans un armoire, il met 320 ARM dans un quart d'armoire et ça consomme moins.
@++
par BsOd57, le Mercredi 18 Mai 2011 à 23h39  
par k'stor le Mercredi 18 Mai 2011 à 22h22
Ouais ou alors on divise la surface par deux pour un même proco en passant d'une finesse à l'autre, ce qui revient à diviser la finesse en nm par racine de 2.
Comme pour le format A4, qui est multiple de racine de 2 de tous les autres formats papier, on conserve ainsi le format mais divise la surface par 2.
Remarque intéressante en effet
par k'stor, le Mercredi 18 Mai 2011 à 22h22  
par lulu-nico le Mercredi 18 Mai 2011 à 21h51
il y a 180 puis 130 et 90 qui est la moities de 180 puis 65 qui est la moities de 130 puis 45 qui est la moities de 90 ..... jusqu'au 22 en continuant cette logique on arrive a 16 et pas a 14
Ouais ou alors on divise la surface par deux pour un même proco en passant d'une finesse à l'autre, ce qui revient à diviser la finesse en nm par racine de 2.
par lulu-nico, le Mercredi 18 Mai 2011 à 21h51  
par Un ragoteur de passage le Mercredi 18 Mai 2011 à 20h53
et elle vient d'où ta logique qui donne 16 et pas 14 ??
intel avait indiqué 16nm sur sa roadmap, mais je ne vois pas le rapport d'une "logique" par rapport aux gravures précédentes...
il y a 180 puis 130 et 90 qui est la moities de 180 puis 65 qui est la moities de 130 puis 45 qui est la moities de 90 ..... jusqu'au 22 en continuant cette logique on arrive a 16 et pas a 14
par BsOd57, le Mercredi 18 Mai 2011 à 21h48  
Oui c'est sûr, il n'aurait pas été sérieux de passer du 120nm au 14nm, surtout que là les finesse de gravures suivent une progression en 1/x (pas trouvé de termes français sorry ).

En revanche on connait la bataille entre ARM et x86, mais pourquoi intel ne peut pas sortir genre un atom modifié (un dual core + hyperthreading) mais à genre 600MHz avec un très faible vcore ??, sa ne devrait pas dépasser les 2 à 3 watts de TDP, cela ne pourrait pas convenir à un smartphone ?
par messier_x, le Mercredi 18 Mai 2011 à 21h38  
Je pense que ça s'appelle ... la recherche.
C'est comme l'aviation avant de faire un A380 on a fait une Caravelle et bien avant les Frères Wright et un peu avant on a eu Clément Ader.
C'est pas très français mais bon je viens de terminer ma prep de classe donc je me lâche !