Stockage : comprendre le naufrage d’Optane
L'arrêt de l'Optane par Intel fait suite à des pertes de plusieurs milliards de dollars. Cependant, les efforts du géant de l'informatique pour améliorer les performances de stockage ont eu des retombées technologiques positives.
Toutes les entreprises doivent faire de gros paris de temps en temps, et celles qui réussissent savent quand se retirer d’un pari qui n’a pas donné les résultats escomptés. C’est ce qu’a fait Intel à la fin du mois de juillet en annonçant la « réduction progressive » de ses produits de mémoire persistante Optane.
Pour mieux comprendre l’arrêt prochain d’Intel Optane, plongeons dans les raisons qui ont motivé la décision d’Intel de lancer cette technologie et quels facteurs ont finalement conduit à sa disparition.
Pourquoi Intel s’était-il lancé dans Optane ?
Optane avait pour objectif de créer un écart de performance important entre les processeurs d’Intel et ceux d’AMD.
Au cours de la dernière décennie, Intel a mis en œuvre plusieurs tactiques pour garder une longueur d’avance sur les autres fabricants de processeurs. Ces tactiques étaient les suivantes :
- Vendre les processeurs basés sur un processus de fabrication avancé à un prix élevé, afin de réaliser d’importants bénéfices.
- Réinvestir ces bénéfices dans une nouvelle technologie de pointe pour conserver une longueur d’avance sur tous les autres fabricants de processeurs.
- Utiliser ce nouveau processus de pointe pour réaliser des bénéfices encore plus importants avec la technologie suivante.
Mais l’économie de la production de semi-conducteurs a lentement changé, retirant progressivement le leadership des mains d’Intel.
Le nombre de wafers qu’une usine doit produire pour être rentable n’a cessé d’augmenter au fil des générations, dépassant à un moment donné largement les besoins de production pour des processeurs d’Intel. Vu l’explosion des coûts de construction d’une de ces usines, il était clair qu’Intel n’allait pas en construire pour n’utiliser qu’une fraction de leur production ; cela l’aurait rendu non rentable. En conséquence, la technologie des processeurs d’Intel a pris du retard sur celle de TSMC, qui, lui, remplit ses chaînes en produisant pour une multitude de marques, dont AMD.
Le PDG d’Intel, Pat Gelsinger, a depuis entrepris de combler ce retard en créant une nouvelle activité de location de ses chaînes de montage, sur la base du rachat de Tower Semiconductor. Mais ne brûlons pas les étapes. Dans un premier temps, Intel avait un plan plus audacieux. Il consistait à apporter un changement architectural important dans les serveurs, la mémoire 3D XPoint, commercialisée sous la marque Optane.
Quelle était la stratégie d’Optane ?
Intel a conçu Optane en imaginant qu’il pourrait reproduire le rebond économique de la mémoire NAND, laquelle a commencé vers 2004 à coûter moins cher que les barrettes de DRAM. Cet effondrement du prix des NAND a été le point de départ de la popularisation des SSD dans tous les équipements informatiques afin d’en améliorer les performances.
Plus précisément : ajouter un SSD permettait d’atteindre les mêmes performances que si l’on avait ajouté de la RAM, mais le prix final de la machine était moins cher. Par ailleurs, dans les configurations où la vitesse d’accès aux disques est importante, doter les serveurs de quelques SSD en lieu et place de nombreux disques durs montés en parallèle réduisait singulièrement l’espace occupé dans le datacenter.
Des améliorations majeures des performances ont aussi été obtenues en positionnant un stockage SSD entre les disques durs et les barrettes de DRAM. En conséquence, les SSD sont rapidement devenus un composant clé dans la plupart des centres de données.
L’idée d’Intel consistait donc à développer un nouveau type de mémoire qui se situerait à mi-chemin entre les performances des barrettes de DRAM et les SSD à base de NAND. Les mémoires émergentes, telles que la mémoire vive magnétorésistive (MRAM), la mémoire à changement de phase (PCM), la mémoire vive résistive et la mémoire vive ferroélectrique, convenaient parfaitement, car elles amélioraient le prix et les performances.
La plupart de ces mémoires émergentes ont une taille de cellule binaire inférieure à celle de la DRAM, de sorte que, du point de vue de la capacité, elles devraient être moins chères à produire et à acheter que les barrettes de DRAM. Elles sont aussi plus rapides que la NAND.
Avantage supplémentaire : elles sont non volatiles. Cela signifie qu’elles ne perdent pas leur contenu en cas de coupure de courant, comme la NAND. Il est donc possible de s’en servir de support de stockage. Mais aussi comme une RAM dans laquelle il n’est pas nécessaire de recharger toute une base de données après un redémarrage du serveur (redémarrage qui arrive notamment lors des mises à jour, lesquelles sont fréquentes). On peut aussi considérer qu’elles rendent les serveurs plus résistants aux pannes en leur permettant de redémarrer plus rapidement.
Intel avait fait des recherches sur les mémoires PCM dès les années 1960 et avait annoncé sa première puce PCM en 1970. Cette technologie était donc une parfaite candidate pour développer les composants mémoire 3D XPoint qui devaient constituer la base technologique des produits de marque Optane. Et si Intel parvenait à faire en sorte que les mémoires Optane ne fonctionnent qu’avec les processeurs Intel, il pourrait creuser durablement l’écart entre lui et ses concurrents.
Pourquoi un format en modules DIMM était-il important ?
La solution naturelle pour cette approche était de doter Optane d’une interface propriétaire. Cela devait permettre à Intel de contrecarrer les efforts de ses concurrents pour utiliser eux-mêmes cette technologie.
Le plan consistant à développer un module Optane fonctionnant à des vitesses proches de celles de la DRAM, Intel a choisi d’adapter le bus mémoire standard DDR4, tout en gardant les changements secrets, afin de conserver un avantage concurrentiel.
À cette fin, Intel a mis au point l’interface DDR-T, qui correspondait au bus DDR4 avec quelques signaux supplémentaires pour prendre en charge un protocole qui véhicule les transactions entre le processeur et les modules Optane. Le bus nécessitait un support à la fois du côté DIMM (format des barrettes mémoire) et du côté CPU.
Les modules Optane au format DIMM permettaient aux composants mémoire 3D XPoint de communiquer à pleine vitesse avec le processeur du serveur hôte. Intel les a commercialisés lors du lancement de sa deuxième génération de processeurs Xeon Scalable, début 2019.
Mais pour être adoptés, ces DIMM plus lents que la DRAM devaient être vendus à des prix inférieurs à ceux de la DRAM. Or, le coût de leur fabrication était plus élevé que le niveau espéré par Intel pour pouvoir les proposer à un tarif raisonnable.
Quel a été le problème économique ?
Toute nouvelle technologie de mémoire ne peut atteindre ses objectifs de coût de fabrication et de prix public que si elle atteint des volumes de production similaires à ceux de la DRAM. C’est ainsi que les prix des Flash NAND sont passés sous les prix des DRAM.
Une puce NAND à cellule unique a toujours été environ deux fois plus petite que son homologue DRAM, en supposant que les deux soient construites selon le même processus et contiennent le même nombre de bits. Pourtant, les coûts de la NAND n’ont pas concurrencé ceux de la DRAM avant 2004. Selon les estimations de la société d’études du marché des semi-conducteurs Objective Analysis, la production de wafers de NAND en 2004 a atteint un tiers de celle de la DRAM. C’est alors que les économies d’échelle ont basculé en faveur de la NAND.
Intel a fait le pari de subventionner l’effort initial jusqu’à ce que les niveaux de vente soient suffisamment élevés pour permettre aux produits Optane les mêmes économies d’échelle. Sauf que cela ne s’est jamais produit.
Au début de la carrière commerciale des produits Optane, ce ne sont pas des DIMMs qui ont été mises sur le marché sous la marque Optane, mais bien des SSD. Il s’agissait alors de rentabiliser suffisamment la technologie 3D XPoint afin de pouvoir investir rapidement dans une production en volume. Le plan prévu par Intel était que les utilisateurs de SSD préféreraient des SSD plus rapides, donc il produisait des SSD Optane qui étaient plus rapides que les autres grâce à leurs composants mémoire 3D Xpoint.
Problème, ces SSD étaient loin d’exploiter toute la vitesse offerte par les composants mémoire 3D XPoint, puisque l’interface SSD était trop lente. Il est difficile de mettre un prix sur la vitesse. Le marché a considéré qu’une augmentation de vitesse relativement mineure ne valait pas le prix élevé qu’Intel avait imaginé. Les ventes de SSD Optane n’ont donc pas été suffisantes pour lancer la production à l’échelle prévue.
En conséquence, Intel a perdu plus de 7 milliards de dollars dans ses efforts pour réduire les coûts d’Optane. La direction d’Intel a décidé de ne pas aller plus loin et a abandonné le produit.
Les choses auraient-elles pu se passer différemment ? Probablement pas de beaucoup. Si Intel avait fixé le prix des SSD Optane de manière plus agressive, ils auraient peut-être gagné en popularité, mais les pertes auraient alors été plus importantes. Si nous supposons que la direction a budgétisé les pertes du pari à un montant fixe, alors l’arrêt d’Intel Optane aurait eu lieu beaucoup plus tôt.
Quel est l’héritage d’Optane ? Qu’est-ce qui va suivre ?
Les utilisateurs actuels d’Optane seront-ils laissés en plan ? Dans une déclaration lue lors du récent événement Flash Memory Summit, Intel a clairement indiqué que l’entreprise soutiendrait les utilisateurs actuels.
Cependant, les fournisseurs qui dépendaient d’Optane pour fabriquer des baies de stockage et des serveurs rapides devront migrer vers une alternative plus coûteuse, pour les prochaines versions de leurs produits. La solution la plus simple est d’opter pour des barrettes NVDIMM. Les fournisseurs qui n’ont pas besoin de persistance, mais qui ont profité des plus grandes capacités des barrettes Optane devront également payer plus cher pour utiliser des barrettes de DRAM à la place. Ces fournisseurs ne devraient pas se ruiner, mais leurs bénéfices seront quelque peu réduits.
L’Optane laisse derrière lui un héritage positif. L’industrie a beaucoup appris de son introduction. L’interconnexion Compute Express Link (CXL) a peut-être été conçue avec Optane en tête, et la Storage Networking Industry Association a développé un modèle de programmation de mémoire non volatile qui promet d’accélérer de nombreuses autres formes de stockage. Ce modèle sera une aubaine lorsque les processeurs intégreront des caches à base de composants MRAM non volatiles. La MRAM devrait devenir la norme dans les processeurs, car elle remplace les actuels composants de cache Static-RAM qui sont devenus très difficiles à miniaturiser.
Optane a ouvert les yeux du marché sur l’idée que des vitesses de mémoire différentes nécessitent des bus très différents. En outre, Optane a appris à l’industrie que la gestion des interruptions avec des commutations de contexte lentes est inadéquate pour gérer en même temps les mémoires les plus rapides et les plus lentes.
L’informatique a également commencé à réutiliser le terme d’architecture de mémoire non uniforme (NUMA) pour décrire les systèmes de mémoire qui combinent des types de mémoire plus rapides et plus lents. Cette approche permet à la mémoire située aux deux extrémités d’une architecture CXL de s’insérer de manière presque transparente dans l’espace mémoire de chaque processeur. L’architecture CXL, encore à l’état de prototype, consiste à pouvoir sortir la RAM et les extensions PCIe d’un serveur, de sorte à pouvoir assembler de manière plus pratique des clusters, avec plus ou moins de nœuds processeurs, RAM et PCIe (stockage NVMe, cartes GPU, etc.).
Peut-être Intel partagera-t-il certaines de ses connaissances sur la fabrication des PCM ou sur les interfaces transactionnelles des DRAM, ce qui aidera d’autres acteurs du secteur. Quoi qu’il en soit, de plus en plus de personnes sont ouvertes à l’idée d’ajouter un nouveau niveau de mémoire entre la RAM et le stockage.
À propos de l’auteur : Jim Handy est un analyste reconnu dans le domaine des semi-conducteurs et des SSD. Il possède plus de 30 ans d’expérience dans l’industrie électronique, dont 14 ans en tant qu’analyste du secteur industriel pour Dataquest (aujourd’hui Gartner) et Semico Research.