De la NAND 3D Xpoint grand public dans les Optane 8000p d'Intel |
————— 15 Octobre 2016 à 15h46 —— 27892 vues
De la NAND 3D Xpoint grand public dans les Optane 8000p d'Intel |
————— 15 Octobre 2016 à 15h46 —— 27892 vues
Sur la fin du premier trimestre 2015, Intel et Micron annonçaient vouloir révolutionner le marché du stockage avec une nouvelle technologie. Quelques mois après, on découvrait leur NAND 3D Xpoint qu'ils nomment sobrement 3D Xpoint pour se démarquer des technologies concurrentes (qui ne manquent pas entre BiCS, BiCS2, V-NAND, MDS).
Les deux compères annonçaient des performances 1000 fois supérieures à de la 3D NAND, avec une endurance bien supérieure grâce à des modules dix fois plus denses. Des mots en l'air ne suffisant pas à convaincre, ils ont vite présenté les prétendues performances d'un SSD nommé Optane équipé de 3D Xpoint face à leur fleuron précédent, le P3700. Ça en poche et avec des prévisions d'arrivée d'un produit grand public pour 2016, l'adepte du stockage ultra rapide n'avait plus qu'à attendre en se frottant les mains.
2016 étant presque terminée, on pouvait penser que 2017 aurait plus de chance de voir débarquer la technologie. Cependant, les gars de chez BenchLife ont pu mettre la main sur quelques informations au sujet de la gamme Optane 8000p d'Intel/Micron, premiers produits à 3D Xpoint prévus pour le grand public. Sur le papier, cela donnerait des performances de ce niveau :
C'est certes élevé, mais ça n'enterrera pas les SSD actuels qui sont tout à fait capables de performances similaires (dans le haut de gamme). Ce qui fera tiquer, c'est la capacité de stockage de ces deux modules, 16Go et 32Go. Serions-nous revenus aux premières années de la technologie SSD ? Pas du tout, c'est qu'Intel prévoit une autre application à sa technologie en attendant de passer au vrai SSD permettant de stocker des données. Ici, on a ce qu'ils appellent un "System Accelerator" qui est un hybride entre RAM et SSD qui permettra de servir de cache entre ces deux solutions.
Cela ne vous rappelle rien ? Ce genre d'application a déjà été pensée (pour le monde professionnel) et le Gen-Z Consortium (AMD en tête) vient d'ailleurs de se positionner à ce sujet, proposant un standard ouvert d'interface entre CPU, RAM, carte mère et stockage. Vous devriez déjà voir poindre dans votre tête une solution propriétaire sauce Intel, et il est possible que le prévisionnel qui suit vous conforte dans cette idée.
À en croire ce qui a fuité chez BenchLife (on rappelle que ça n'a rien d'officiel au passage), les premiers produits à 3D Xpoint devraient arriver à la fin de l'année (dernière ligne) dans des "System Accelerator" et périphériques format M.2 nom de code Stony Beach, le tout dans la gamme "Optane Memory". Puis suivraient rapidement les "Optane SSD", avec les Mansion Beach en PCIe 3.0 x4 (NVMe) et les Brighton Beach en PCIe 3.0 x2 (NVMe) début 2017, qui serait l'année de lancement de la technologie. Rien n'est dit pour d'éventuels modèles SATA 6Gb/s à part le fait qu'ils existeront avec la seconde génération de NAND 3D TLC, l'interface SATA limitant de toute façon ce qu'il est possible de faire au niveau débit.
Ceux qui auront levé les yeux un peu plus haut sur le diagramme auront peut-être remarqué quelque chose. Sky Lake et Kaby Lake se sont invités à la fête. On pourrait alors émettre l'hypothèse qu'il faille obligatoirement du Kaby Lake pour profiter d'un "System Accelerator", ce qui freinerait indéniablement l'arrivée de cette technologie tout en assurant à Intel que les plus enthousiastes passeront à la caisse pour profiter de ce qui se fait de mieux. D'ailleurs, en regardant la seconde génération de "System Accelerator" et SSD nommée Carson Beach, on se rend compte que le format change et qu'en plus de passer à du M.2 PCIe 3.0 x4, une version BGA est prévue. De là à dire que les chipsets Intel pourraient embarquer une telle technologie sur des mobales haut de gamme (ou appareils nomades), il n'y a qu'un pas et il ne semble pas difficile à franchir.
D'un côté, on ne peut que féliciter les avancées technologiques, surtout si elles nous assurent de gagner en performances. D'un autre, la concurrence va avoir du mal à suivre (faute de moyens) et cela risque de faire mal au consommateur, la tarification de la nouveauté - et surtout de l'exclusivité - étant toujours excessive. Si ces informations se vérifient, les trois mois à venir nous apprendront à quelle sauce le géant compte assaisonner le marché dans les années qui suivront l'arrivée de cette technologie.