Magazine Storage 36 : une déferlante de projets pour accélérer le stockage
Malgré la généralisation des SSD, puis des SSD NVMe, il demeure des goulets d’étranglement dans les solutions de stockage. Le nouveau numéro du magazine Storage fait le point sur les efforts des constructeurs pour venir à bout des derniers ralentissements.
(Cet édito est à retrouver dans le numéro 36 de Storage, notre magazine dédié au stockage téléchargeable gratuitement sur cette page)
Plus vite. Dans un contexte où il est devenu critique pour les activités commerciales d’analyser rapidement de très grandes quantités de données (avec l’IA), mais aussi de restaurer dans les plus brefs délais des contenus détruits par les cyberattaques, les fournisseurs de stockage planchent sur l’accélération.
Il n’est plus question de se contenter de dire que des SSD sont plus rapides que des disques durs du fait de l’absence d’éléments mécaniques – 450 Mo/s pour un SSD, contre 150 Mo/s pour un disque dur, sur une connectique SATA6. Ni même d’encourager l’utilisation de SSD avec connectique NVMe, qui, parce qu’ils sont adressés comme des mémoires depuis le bus PCIe plutôt que comme des unités SCSI en mode bloc par un chipset, décuplent encore les performances : 5 Go/s.
Au-delà des accélérations apportées par les SSD, des goulets d’étranglement demeurent sur les solutions actuelles entre une application et son espace de stockage. La preuve : les SSD eux-mêmes supportent des millions d’IOPS (quantités d’accès par seconde), alors que les baies de stockage des fournisseurs sont chronométrées en seulement des centaines, voire des dizaines de milliers d’IOPS.
Dans le cas des baies de disques, le ralentissement est le prix à payer pour bénéficier de toute une kyrielle de fonctions bien utiles sur un équipement partagé entre plusieurs machines. Citons la compression à la volée, pour bénéficier de plus de capacité que celle réellement achetée, le RAID et l’Erasure Coding, pour router des copies des données vers différents SSD à des fins de résistance aux pannes, ou encore le chiffrement. Sans compter les fonctions de snapshots à la volée, pour revenir en arrière lors d’une cyberattaque, ou encore d’indexation, pour servir les moteurs d’accès en mode objet.
Ces opérations sont normalement faites par un processeur (sur la baie ou les serveurs qui possèdent un tiroir de disques) qui n’exécute pas plus rapidement de telles fonctions qu’il n’exécute le reste des applications. Processeur, qui, d’ailleurs, a d’autant moins de puissance de calcul disponible pour les applications qu’il doit exécuter de telles fonctions. Des startups comme Pliops réinventent donc la carte contrôleur dédiée pour exécuter toutes ces fonctions sans ralentir le reste, avec une puce spécialement conçue pour travailler sur ces tâches plus vite que ne le ferait un processeur.
Encore mieux, la startup Nyriad n’a même pas conçu de contrôleur dédié : elle a utilisé une carte GPU Nvidia du commerce, peu chère, pour accélérer toutes les fonctions de haut niveau d’une baie de stockage. Et le résultat est dans son cas si rapide qu’il n’est même pas besoin d’utiliser des SSD : sa solution va (très) vite, même avec des disques durs mécaniques.
Pure Storage, l’un des principaux fabricants de baies de SSD, arrive à des résultats similaires en faisant exactement l’inverse. Selon lui, le problème ne serait pas de confier des tâches de stockage à un processeur x86, mais que ces tâches passent ensuite par le filtre du contrôleur de mémoire NAND embarqué à l’intérieur de SSD. Sa solution ? Concevoir ses propres SSD, qu’il appelle DFM (DirectFlash Module), dans lesquels il retire tout contrôleur NAND, afin de confier l’intégralité des fonctions de stockage à un processeur x86 qui ne fait rien d’autre.
L’avantage de la solution de Pure Storage est qu’elle améliore autant la performance que la consommation électrique ou que la densité de stockage dans le datacenter. Et pour cause : contrairement aux habitudes sur ce type d’équipement, le processeur x86 ici utilisé n’est pas un modèle avec deux ou trois générations de retard, mais la toute dernière évolution Sapphir Rapids du Xeon d’Intel, celle que les constructeurs réservent d’ordinaire à leurs plus puissants serveurs.
Dédier les tout derniers processeurs x86 aux seules fonctions de stockage est une pratique que l’on risque de voir de plus en plus souvent chez les fabricants de baies de disques. C’est par exemple le cas sur la dernière baie Alletra MP de HPE qui, contrairement aux machines qui l’ont précédée, n’intègre plus d’ASIC pour router et compresser à la volée les données. Ce choix nouveau pour le constructeur lui permet de proposer un équipement plus versatile, qui est optimisé au cas par cas – c’est-à-dire pour une application donnée – par logiciel.
En l’occurrence, les machines HPE exécutent notamment le système de Vast Data pour tous les projets qui ont trait à l’IA. Ce système implémente des fonctions d’un niveau encore supérieur à celui des fonctions évoquées plus haut. Parce que le Machine learning consomme beaucoup de données en lecture, mais produit des synthèses assez courtes en sortie, le système de Vast Data fait des choix qui ne donneraient pas d’aussi bons résultats sur d’autres applicatifs. Il déplace par exemple les zones de cache de l’amont à l’aval pour éliminer les opérations de synchronisation (qui imposent de la latence) et pour raccourcir la récupération des données entre les différents nœuds.
Les derniers processeurs x86 apportent notamment aux systèmes de stockage le support du CXL. Il s’agit d’un réseau d’un nouveau genre où les tiroirs de SSD ne sont plus physiquement reliés par des connexions Ethernet (NVMe/RoCE par exemple) aux serveurs, mais via des fibres qui véhiculent directement les signaux des bus PCIe. Comparativement aux liens NVMe-over-Fabrics, CXL élimine encore la latence due à l’empaquetage des données selon un protocole.
DDN, un autre spécialiste du stockage parallélisé, mise aussi sur une réécriture de son système selon l’usage. Dans son cas, l’optimisation pour l’IA permet d’utiliser des baies de SSD QLC, bien moins chers que les MLC ou TLC utilisés d’ordinaire, mais sans souffrir d’aucun ralentissement.
Justement QLC, TLC, MLC sont les acronymes des technologies employées pour stocker de l’information sur les mémoires NAND. Or, certains fabricants de SSD planchent à l’heure actuelle sur une amélioration de la NAND elle-même. Dans ce nouveau numéro du magazine Storage, nous évoquons ainsi la toute dernière innovation en la matière : le piège de charge. Ce dispositif consiste essentiellement à remplacer le matériau chimique qui stocke ou libère les électrons, par un autre, bien plus réactif aux changements de tension et, a priori, qui s’use aussi moins vite.
Tous ces sujets, mais aussi les mémoires NOR, bien plus efficaces que les NAND pour les projets d’appoint, sont au menu de ce dernier numéro de Storage. Nous vous en souhaitons une bonne lecture.