HPE refond les fonctions de réduction de données de 3PAR
Pour la version 3.3.1 de son OS 3PAR, HPE a réécrit le moteur de déduplication de ses baies 100 % Flash et a également ajouté des fonctions de compression. La firme a aussi apporté de multiples améliorations techniques et refondu son modèle de licence.
Hewlett Packard Enterprise (HPE) a annoncé hier la disponibilité de la dernière mouture de son système d’exploitation 3PAR Operating System, une version qui apporte plusieurs améliorations majeures, notamment en matière de réduction de données.
Ce n’est pas un mystère, HPE s’est converti tardivement au stockage 100 % Flash. Et ce n’est qu’en juin 2014 que son architecture 3PAR a hérité de fonctions de déduplication, près d’un an après le lancement de la baie 100 % Flash 3Par StoreServ 7450. HPE a de ce point de vue effectué un cheminement assez similaire à celui de NetApp en ajoutant le support de la déduplication inline à son architecture existante (contrairement à EMC qui persiste à ne pas proposer la technologie sur ses baies Unity et VMAX). D’un point de vue marketing et technique, ce support de la déduplication a permis à HPE de mieux répondre à l’assaut frontal de nouveaux entrants comme Pure Storage, Tegile, Kaminario ou Nimble et de continuer à gagner des parts de marché sur ses concurrents historiques.
Mais certaines entreprises se sont peu à peu fait l’écho de dégradation des performances de la déduplication sur leurs baies 3Par 100 % Flash, un point que les concurrents n’ont pas manqué de souligner, tout en pointant aussi du doigt la faible efficacité de l’algorithme de déduplication d’HPE. La firme dirigée par Meg Whitman s’est donc attaaqué à la réécriture de son code de déduplication et a optimisé les fonctions de réduction de données de ses baies 100 % Flash.
Le résultat de ces travaux est la technologie 3PAR Adaptive Data Reduction (ADR) introduite avec la dernière version de 3PAR OS (la 3.3.1). Comme l’explique Michel Parent, ADR apporte une révision drastique des capacités de réduction de données d’HP qui vise non seulement à améliorer les performances, mais aussi la scalabilité de l’algorithme d’HPE.
La déduplication dans 3Par revue et corrigée
Pour comprendre la déduplication de données dans 3Par, il est utile de revenir sur la façon dont les données sont gérées par la baie.
Chaque disque physique est découpé en « Chunklets », qui sont des segments de 1 Go de capacité. Ces segments sont ensuite organisés en disques logiques qui sont l’équivalent de « RAID Sets ». Ces disques logiques sont créés dynamiquement par la baie lorsque l’administrateur définit ses Common Provisioning Groups (CPG), en fait des pools de disques logiques, sur lesquels on peut définir les volumes exposés aux applications.
Dans les versions actuelles de l’OS 3PAR, la déduplication s’effectue au niveau d’un CPG et les métadonnées nécessaires à la gestion de la déduplication sont stockées dans un espace spécifique du CPG, baptisé Deduplication Store ou DDS. lLe processus de déduplication est assisté par la fonction d’express Indexing de l’ASIC 3PAR et s’effectue sur des blocs de 16 Ko — c’est d’ailleurs ce qui amène HPE à recommander le formatage des volumes avec des tailles de blocs d’au moins 16 Ko, afin d’accroître l’efficacité de la déduplication.
Avec la version 3.3.1 de 3PAR OS, le périmètre du domaine de déduplication évolue. Le Deduplication Store est désormais organisé par volume, puis partagé sur l’ensemble des CPG. Par ailleurs le processus de garbage collection de l’algorithme de déduplication a été réécrit afin d’améliorer ses performances. Globalement, cette réécriture de la déduplication des baies 3Par devrait améliorer les performances de la déduplication. Mais elle ne devrait rien changer à son efficacité, HPE travaillant toujours sur une taille de bloc de 16 Ko. Selon Michel Parent, le ratio de déduplication moyen est de l’ordre de 2:1. Il est à noter que l’organisation du DDS par volume permet désormais à HPE de remonter des informations de déduplication plus fiables par volume (via l’outil StoreFront remote ou la console SSMC).
Compression et data-packing pour optimiser la réduction de données
La réécriture du code de déduplication, attendue, n’est toutefois pas la seule bonne nouvelle apportée par l’OS 3.3.1. HPE a en effet ajouté la compression à son arsenal de réduction de données. cette fonction est activable volume par volume et s’appuie sur l’algorithme LZ4 (en utilisant l’accélération native des puces Xeon d’Intel). Selon Michel Parent, les gains sur une base Oracle peuvent aller de 2:1 à 4:1 selon la nature des données.
Enfin, HPE a ajouté une fonction de Data Packing à son OS pour optimiser encore un peu plus l’usage de l’espace sur la baie.
En couplant tous ces mécanismes, HPE estime que les taux de réduction de données devraient être en moyenne de l’ordre de 1,5:1 sur une base Exchange et de 3 à 4:1 pour des applications VDI. Il est à noter que le nouvel algorithme de déduplication fonctionne sur toutes les baies 3PAR StorServ des séries 7000, 8000, 10 000 et 20 000. La compression, en revanche, n’est disponible que sur les modèles 8 000 et 20 000.
Un mécanisme de licence simplifié
Selon Michel Parent, la nouvelle version de l’OS 3Par apporte aussi plusieurs optimisations importantes, comme l’accélération des performances sur iSCSI.
HPE avait déjà introduit une fonction baptisée Express Writes sur Fibre Channel et la version 3.3.1 de l’OS permet de l’étendre à la pile iSCSI, ce qui permet une réduction de la latence pouvant atteindre jusqu’à 40 %. HPE a aussi optimisé le code de son serveur NAS intégré (« File Persona ») qui supporterait désormais un niveau de charge deux fois supérieur à ce que proposait la mouture précédente de l’OS.
Enfin, HPE a revu ses mécanismes de licence logicielle. Désormais, la plupart des fonctions de l’OS 3Par sont accessibles gratuitement pour les possesseurs de baies 3PAR StorServ 8000 et 20000. Seules les licences des fonctions de réplication et de métrocluster restent optionnelles.