Pure Storage : « Nous travaillons à vendre notre technologie aux hyperscalers »
En marge des annonces officielles de Pure//Accelerate 2024, LeMagIT a pu obtenir la confirmation que Pure Storage serait sur le point de remporter un contrat très important. Le patron de la R&D du constructeur explique comment.
Ce n’est ni une annonce officielle de la dernière conférence Pure//Accelerate 2024, ni plus vraiment un bruit de couloir. Pure Storage travaille à vendre sa technologie de stockage aux hyperscalers. Pas pour commercialiser ensuite en cloud des baies FlashBlade ou FlashArray virtuelles, ce qui existe déjà chez AWS et Azure. Non, il s’agit véritablement de leur fournir le système d’exploitation Purity et des rayonnages entiers de modules Flash DFM (DirectFlash Modules) pour motoriser tous leurs services de stockage en ligne.
On ignore quelle opportunité représente ce marché, mais certains analystes estiment qu’il pourrait décupler les revenus que Pure Storage génère en vendant ses produits aux entreprises.
« Le projet est très simple : je souhaite remplacer leur infrastructure de stockage de données par notre technologie », finit par lâcher Charles Giancarlo, le PDG de Pure Storage, face à l’insistance du MagIT, lors d’une interview à huis clos consacrée à un tout autre sujet. Il dévoile aussi que, d’ici à la fin de l’année, l’un des trois grands hyperscalers américains devrait présenter les résultats des tests qu’il mène actuellement sur des clones de ses services, motorisés aux technologies Pure Storage.
« Si ces tests sont concluants – et tout porte déjà à croire que ce sera une victoire –, nous commencerons à leur livrer nos technologies dès 2025 », ajoute-t-il.
« Les hyperscalers veulent remplacer les disques durs qu’ils utilisent par de la mémoire Flash pour économiser de l’espace et consommer moins d’énergie. Il apparaît que nous sommes les seuls à leur permettre d’atteindre le dixième de l’espace, de l’électricité et du refroidissement actuels. Certes, leur environnement diffère considérablement d’un environnement d’entreprise. Mais notre technologie de base, qui consiste à gérer directement la mémoire Flash plutôt que sous forme de SSD, fait que nous sommes largement meilleurs dans la courbe du rapport coût-performance que les SSD », argumente le PDG de Pure Storage.
Pour comprendre exactement de quoi il en retourne, LeMagIT est parti à la rencontre de Shawn Rosemarin, le patron de la R&D chez Pure Storage (en photo). Interview.
LeMagIT : À quelle demande des hyperscalers pensez-vous répondre, exactement ?
Shawn Rosemarin : Aujourd’hui, 60 % de la production mondiale des disques durs mécaniques est vendue aux hyperscalers pour leurs services de stockage. Les hyperscalers ont annoncé qu’ils cherchaient une alternative consommant moins d’électricité et ayant une meilleure densité. La solution consiste à remplacer ces disques durs par de la mémoire Flash. Reste à savoir quelle mémoire Flash ils vont prendre.
Shawn RosemarinV-P R&D-Customer Engineering, Pure Storage
Comme tous les autres fournisseurs de produits d’infrastructure, nous avons constaté que les hyperscalers ne veulent pas de nos solutions prêtes à l’emploi. Ils préfèrent fabriquer eux-mêmes leurs infrastructures de stockage, directement à partir de circuits de mémoire NAND ; de sorte à développer un design qui corresponde mieux aux contraintes de leurs datacenters que les baies que nous et nos concurrents avons conçues pour les entreprises.
Très bien. Mais l’effort à fournir est beaucoup plus important que simplement construire une baie de stockage. Si vous voulez optimiser au maximum la consommation et la capacité des modules Flash, vous ne pouvez pas vous contenter d’assembler des SSD du marché qui sont conçus pour des usages génériques. Vous devez écrire un OS qui gère les SSD de manière optimale. Et quitte à écrire un OS, autant aussi réécrire le firmware pour pousser l’optimisation à son paroxysme. Et dans ce cas, vous devez même repenser l’architecture matérielle des SSD.
Cela coûte beaucoup d’argent et de temps. Sachant que nous avons déjà les modules Flash les plus denses en matière de capacité et les plus économes en termes d’énergie, et que nous avons aussi l’OS pour les gérer de la manière la plus optimale possible, nous pensons qu’il est financièrement plus intéressant pour les hyperscalers d’acheter ces technologies chez nous plutôt que les redévelopper eux-mêmes.
LeMagIT : En quoi votre technologie serait-elle la plus optimale ?
Shawn Rosemarin : Notre système Purity est le seul à avoir une visibilité complète sur l’intégralité des flux d’entrée/sortie, depuis le contrôleur jusqu’à la cellule NAND individuelle. Sur toutes les solutions concurrentes, un contrôleur envoie les données au SSD, à l’aveugle, et c’est le firmware du SSD qui détermine où mettre les bits d’information. Comme nous maîtrisons le choix des cellules, nous avons plus de possibilités d’optimisation.
Par exemple, nous pouvons éviter en amont un problème appelé Write Disturb et dont la résolution par l’électronique d’un SSD consomme beaucoup de temps de latence. Sur une mémoire NAND QLC, vous pouvez stocker 4 bits d’informations avec 16 niveaux de tensions électriques différents. C’est très sensible et l’écriture d’une tension trop différente dans une cellule voisine peut légèrement modifier la tension de la cellule précédente, c’est-à-dire changer les valeurs de bits, c’est-à-dire corrompre les données.
Shawn RosemarinV-P R&D-Customer Engineering, Pure Storage
Pour pallier ce problème, les SSD traditionnels stockent les données dans une DRAM interne qui leur sert à vérifier qu’il n’y a pas eu d’erreur d’écriture et, le cas échéant, leur firmware la corrige. En ce qui nous concerne, nous savons dès le départ quel va être l’enchaînement des données et, au moment de les stocker, nous indiquons dans quelles cellules écrire chacune d’elles de sorte qu’il n’y ait pas de problème de parasitage à résoudre ensuite.
Accessoirement, le fait de maîtriser le choix des cellules en amont est aussi ce qui nous permet d’avoir une densité 2,5 fois meilleure que celle de nos concurrents. Les SSD du marché atteignent 30 To de capacité quand nos DFM atteignent 75 To. Je suppose que des SSD de 60 To vont arriver d’ici à la fin de l’année, mais nous annonçons cette semaine la disponibilité de nos DFM en 150 To. Et je peux vous garantir que des DFM de 300 To seront disponibles en 2025. Nos concurrents, dans le meilleur des cas, proposeront alors des SSD de 120 To.
LeMagIT : C’est-à-dire ? En quoi le fonctionnement de votre logiciel est-il lié à l’installation de plus de circuits NAND dans vos DFM qu’il n’y en a dans un SSD ?
Shawn Rosemarin : Comme je viens de vous l’expliquer, les firmwares des SSD compensent leurs problèmes d’écriture par un calcul effectué dans une mémoire DRAM intégrée au SSD. Or, les circuits de cette mémoire DRAM, même s’ils n’offrent que très peu de Go par rapport à la capacité d’un SSD, occupent autant de place dans un SSD que les circuits de NAND. Et ils consomment aussi beaucoup plus d’énergie.
Shawn RosemarinV-P R&D-Customer Engineering, Pure Storage
Chez nous, tous les calculs se font en amont, il n’y a donc pas de DRAM dans nos DFM et c’est pourquoi nous pouvons y mettre 2,5 fois plus de circuits de mémoire NAND ! Je précise d’ailleurs que notre projet consiste à vendre aux hyperscalers notre OS Purity et les modules DFM que nous fabriquons.
LeMagIT : En début de semaine, Western Digital a justement annoncé des SSD avec un firmware spécialement adapté à l’IA. Ne lui suffirait-il pas d’avoir un firmware adapté aux hyperscalers pour vous concurrencer ?
Shawn Rosemarin : Cela ne fonctionnerait pas aussi bien, car vous vous retrouveriez avec un firmware figé pour traiter un cas de figure. Notre OS est paramétrable pour traiter tous les cas de figure sur les mêmes modules de mémoire Flash.
Par exemple, pour minimiser la place occupée sur la mémoire Flash, vous voudrez dédupliquer les données de sorte à éliminer les redondances. Cela ne fonctionne bien que si vous appliquez une déduplication adaptée au type de données et à la répartition des bits de ces données-là dans les cellules. Dès lors qu’il y a déduplication – et c’est ce que veulent les hyperscalers pour densifier leur stockage –, seul notre système permet une écriture fiable du premier coup.
Il faut comprendre qu’un hyperscaler a besoin d’une agilité maximale pour rentabiliser ses investissements. Il doit pouvoir réaffecter en temps réel de la capacité physique de stockage à tel ou tel service en ligne. Sans aucune maîtrise sur le firmware des SSD, il leur serait impossible de le faire en conservant des optimisations.
LeMagIT : Le fait de ne pas mettre de DRAM dans vos DFM ne pose-t-il pas des contraintes ?
Shawn Rosemarin : Au contraire ! Cela présente au moins encore un autre avantage : nous sommes beaucoup moins soumis aux pénuries récurrentes de DRAM et, donc, les prix de nos DFM fluctuent bien moins que ceux des SSD.
Et il y a même encore un autre avantage qui est lié à la durée de vie des supports. Les SSD QLC sont ainsi réputés durer moins longtemps que des SSD TLC qui n’écrivent que trois bits par cellule. Mais ce n’est pas tant la faute aux cellules NAND qui s’usent plus vite avec 16 tensions qu’avec 8, c’est surtout la faute aux circuits de DRAM qui, en étant systématiquement sollicités, s’usent plus vite que les circuits de NAND. Nos DFM ont donc, en plus, une meilleure longévité.
LeMagIT : À l’heure actuelle, vos DFM et les SSD utilisent de la NAND QLC pour remplacer les disques durs. À quand l’utilisation de la NAND PLC ?
Shawn Rosemarin : Sur le papier, la NAND PLC stocke cinq bits par cellule, donc effectivement elle permettrait en théorie d’atteindre de plus grandes densités de stockage. Mais souvenez-vous de ce que je vous ai dit à propos du Write disturb. Les cellules NAND PLC utilisent cette fois-ci 32 tensions électriques différentes pour stocker leurs données.
La difficulté du calcul qui détermine dans quelles cellules écrire les bits, pour éviter tout parasitage, est exponentielle. À l’heure actuelle, ni nous ni nos concurrents ne savons le faire sans générer de la latence pour les serveurs.
Accessoirement, la mémoire NAND PLC n’est pas encore fiable. À l’heure actuelle, les cellules s’usent dix fois plus vite que les cellules de NAND QLC.