Stockage milieu de gamme : Hitachi se veut une alternative à EMC et NetApp
Sur un marché du milieu de gamme dominé par les Clariion CX d'EMC et où les FAS 2000 et FAS 3x00 de NetApp rencontrent un succès grandissant, Hitachi Data Systems veut regagner du terrain en lançant une nouvelle mouture de ses baies AMS alliant performances et haute disponibilité. Au vu de leurs caractéristiques, les AMS 2000 ont de quoi relancer la concurrence sur un segment où les trois premiers constructeurs contrôlent près de 70% des ventes.
Hitachi a refondu la semaine dernière son offre de stockage modulaire AMS (Adaptable Modular Storage), qui constitue son milieu de gamme entre les serveurs de stockage SMS pour les TPE et les baies Universal Storage Platform (USP). Le constructeur a ainsi annoncé trois nouvelles baies SAN à attachement Fiber Channel 4 Gbit/s et iSCSi (Gigabit Ethernet), les AMS 2100, 2300 et 2500, capables respectivement d'accueillir 120, 240 et 480 disques durs.
Une disponibilité portée à 99,999% grâce à un contrôleur actif/actif en standard
Les deux principales nouveautés d'importance pour cette gamme sont l'intégration d'un contrôleur actif/actif symétrique et l'utilisation d'une architecture de disque interne SAS en lieu et place de l'architecture à base de boucle Fibre Channel utilisée jusque-là. Ces deux innovations permettent à Hitachi de proposer une disponibilité très élevée pour ce type de système (avec une garantie de 99,999% de disponibilité) et des performances très améliorées par rapport aux modèles antérieurs.
Comme le souligne Michel Alliel, le directeur technique d'Hitachi Data Systems France, l'intégration d'un contrôleur actif/actif permet de résoudre plusieurs problèmes qui se posaient jusqu'alors avec les baies de milieu de gamme : " Avec cette archi actif/actif, il n'est plus nécessaire d'investir dans un logiciel d'équilibrage de charge et de voies dans les serveurs. C'est le contrôleur de la baie qui gère dynamiquement la répartition de charge entre les voies (2 voies FC 4Gbit/s ou iSCSI Gigabit par contrôleur) et qui se charge du monitoring de charge et de l'optimisation des performances en temps réel".
Tous les ports et volumes sont accessibles quelque soit le chemin d'accès et en cas de défaillance d'un contrôleur, les opérations de maintenance peuvent se faire sans interruption. Il en va d'ailleurs de même en cas de mise à jour du microcode des contrôleurs. Selon Michel Alliel, ces seules améliorations devraient permettre aux nouvelles baies AMS de se différencier nettement par rapport aux architectures des Clariion CX4 d'EMC ou à celle des baies EVA d'HP.
Des performances en forte hausse
Hitachi met aussi en avant les gains liés à l'adoption de la technologie SAS en interne dans la baie. "Cela faisait longtemps que l'on voulait sortir du backend Fiber en boucle et que l'on cherchait à basculer au SAS. Mais nous avons pu prendre notre temps pour optimiser notre architecture. Le fait que nos générations précédentes d'AMS disposaient de deux boucles Fiber Channel internes en 2 Gbit nous a permis de prolonger un peu leur durée de vie par rapport aux concurrents".
Avec les nouvelles baies, Hitachi annonce des performances en hausse de 300 à 400%, une performance liée à la fois à l'utilisation de disques SAS et à l'inclusion d'un double contrôleur en architecture actif/actif. Les AMS 2100 et 2300 affichent ainsi des performances maximales de 400 000 IOPS tandis que l'AMS 2500 plafonne à 900 000 IOPS. A titre de comparaison, l'AMS 500 affichait un plafond de 180 000 IOPS et l'AMS 1000 de 300 000 IOPS en sortie de cache (environ 250 000 en lecture aléatoire)
Les baies AMS 2000, 2100 et 2500 peuvent accueillir des disques SAS 146 et 300 Go à 15000 tr/mn et des disques SAS plus capacitifs de 400 Go à 10000 tr/mn. Pour les applications moins sensibles aux performances, les baies supportent aussi des disques SATA de 500 Go et 1 To à 7200 tr/mn. Ces derniers disques disposent d'un mode d'économie d'énergie : l'administrateur peut définir une période de temps au-delà de laquelle le disque va ralentir (3200 à 4800 tr) , ce qui permet d'abaisser la consommation de près d'un tiers (de 9 à 6 W par disque). Il est possible également de définir un délai au-delà duquel les disques s'arrêteront de tourner. Selon Michel Alliel, ces astuces permettent de réduire de 30 à 40 % la consommation électrique de la baie.
De nouvelles fonctions logicielles
Côté logiciel, il est possible de redimensionner de façon dynamique les LUN et volumes. Les nouveaux AMS embarquent aussi une fonction baptisée MegaLUN, qui permet de définir un LUN à accroissement dynamique dont le contenu est réparti (strippé) sur l'ensemble des disques avec un maximum de capacité de 60 To. Cette fonction est assez similaire dans son concept à celle des FlexVol de NetApp. La limite de 60 To n'est pas innocente puisqu'elle correspond aux limitations des contrôleurs NAS d'Hitachi qui peuvent assembler plusieurs MegaLUN au sein d'un "global NameSpace" unique pouvant atteindre plusieurs péta-octets.
Toujours côté logiciel, les nouveaux AMS supportent l'équilibrage de charge et le Failover pour ESX, leurs fonctions de réplication synchrone et asynchrone sont certifiées pour fonctionner avec la technologie Site Recovery Manager de VMware. Sous Windows 2008, les baies AMS supportent aussi l'équilibrage de charge sans HDLM (ce qui réduit la facture logicielle). Elles sont également certifiées avec Hyper-V et supportent aussi les fonctions de geo-cluster MSCS avec les services de réplication. Hitachi a enfin veillé à la compatibilité de ses fonctions de snapshot avec les services de snapshot de Windows (VSS 2).
Pour terminer, les nouvelles baies HDS supportent le Thin Provisionning, qui permet l'allocation progressive de capacité par la baie en fonction de la consommation réelle de l'application. Cette fonction est d'autant plus utile que le "File System" est capable d'en tirer parti. Ainsi le Thin provisionning version Hitachi fournit des performances optimales avec les OS à base de "volume management" Veritas (la plupart des grands Unix). Comme l'explique Michel Alliel, ces File System ont l'avantage d'être "conscients" des capacités de la plate-forme sous-jacente, ce qui permet une granularité maximale de l'allocation de la capacité. Les dernières évolutions de NTFS dans Windows 2008 Server sont aussi bien adaptées à l'usage du Thin Provisionning, de même que le File System clusterisé d'Oracle. En revanche, il faudra sans doute attendre les prochaines évolutions de VMFS, le File System de VMware, dans ESX Server 4.0, pour tirer parti à 100% des capacités de thin provisionning.