Cet article fait partie de notre guide: Le Who's Who 2016 de l'Hyperconvergence

Les challengers sur le marché de l’hyperconvergence

Outre une poignée de leaders, le marché de l’hyperconvergence est animé par de multiples challengers comme Atlantis Computing, Cisco/SpringPath, Hedwig, HPE ou Scale Computing.

Selon Gartner, le marché des systèmes hyperconvergés devrait progresser de 79% en 2016 pour atteindre près de 2 milliards de dollars, une prédiction en ligne avec celle d’IDC, qui estime de son côté que les achats de systèmes hyperconvergés par les entreprises devraient atteindre 1,9 Md$ sur l’ensemble de l’année 2016. Selon le cabinet d’étude, ce chiffre devrait passer à 4,8 Md$ à l’horizon 2019.

 Sur ce marché,  les fournisseurs leaders de technologies sont des acteurs comme Nutanix, Simplivity et VMware (ce dernier fournissant les briques de bases pour les offres d'acteurs comme EMC ou Hitachi). Mais on compte aussi une multitude d'acteurs émergents qui eux aussi ont leur carte à jouer sur le marché. Nous vous proposons un tour d'horizon des plus significatifs.

Atlantis Computing

Spécialiste historique de l’optimisation des environnements VDI avec sa technologie de cache en mémoire, Atlantis Computing s’est lancé en 2015 sur le marché des appliances hyperconvergées avec une solution baptisée Hyperscale. Cette dernière est le fruit du repositionnement de l’offre phare de l’éditeur, USX, qui était jusqu’alors utilisée comme cache d’accélération les infrastructures de stockage existantes.

Concrètement, Atlantis préinstalle sa solution logicielle sur les serveurs choisis par ses clients (Cisco, Dell, HPE et SuperMicro). La firme a fait dès le départ le pari du 100 % Flash, là où ses concurrents proposent encore dans la plupart des cas de l’hybride. Malgré ce choix, Atlantis s’illustre par des tarifs très serrés.

Comme chez Nutanix et Simplivity, le composant principal d’Hyperscale se présente sous la forme d’une machine virtuelle qui s’installe sur chacun des serveurs d’un cluster. Mais la grosse différence est que cette machine virtuelle — dont la technologie reprend celle du produit phare de l’éditeur, USX — consomme une partie de la mémoire du serveur (quelques dizaines de gigaoctets) pour optimiser les opérations de stockage en mémoire (cache, déduplication/compression de données, ré-ordonnancement d’E/S…).

Les disques Flash présents dans chaque serveur se bornent quant à eux à fournir une couche de persistance rapide.

Selon Atlantis Computing, le fait de réaliser un maximum d’opérations en mémoire et sur le nœud serveur sur lequel sont situées les VM utilisatrices permet non seulement de doper les performances (latence, IOPS, débit), mais aussi d’économiser de la capacité utilisée (Atlantis revendique une multiplication par 5 de la capacité utilisable). Cette stratégie est notamment très efficace pour les environnements VDI, le terrain de prédilection de la firme.

Pour l’instant, la solution Hyperscale est disponible avec les hyperviseurs VMware vSphere et XenServer.

Les prix débutent à 43 000 $ pour l’offre hyperconvergée CX-4-SM à base de serveurs TwinPro SuperMicro, un prix qui inclut l’hyperviseur et le support 3 ans.

Cisco / SpringPath

Cisco a récemment lancé une offre hyperconvergée en s’appuyant sur la technologie de SpringPath, une start-up dans laquelle il a investi et sur laquelle il fonde tous ses espoirs en matière d’hyperconvergence.

Lors d’une récente visite chez SpringPath, Le MagIT n’a pu que constater les liens étroits entre les deux sociétés, puisque les responsables de Cisco se seront finalement plus exprimés lors de la présentation de la technologie de SpringPath que les dirigeants de SpringPath eux-mêmes. Le responsable marketing de SpringPath, Ashish Gupta, n’a pas dissimulé le fait que SpringPath avait tout misé sur Cisco et sur sa machine commerciale et ne souhaitait ni vendre sa technologie en direct ni trouver de nouveaux partenaires OEM. « Dans l’avenir immédiat, nous entend mettre nos ressources marketing et commerciales au service des efforts commerciaux de Cisco » a epliqué le responsable. Concrètement, cela veut dire que la seule incarnation de la technologie hyperconvergée de SpringPath est la famille de systèmes HyperFlex de Cisco.

Comme chez Nutanix ou VMware, la clé de la plate-forme est le système de fichiers distribué qui permet d’unifier le stockage Flash et disque dur présent sur les différents nœuds pour le présenter sous la forme de pools consommables par vSphere. Ce système de fichiers est accompagné d’une offre riche de services de données parmi lesquels la réplication, la déduplication, la compression, le thin provisioning, le clonage rapide et les snapshots. Techniquement, le système de fichiers de springPath est un file system distribué à base de log (similaire en cela à la plupart des file system modernes). Sa mission principale est de distribuer les données de façon sécurisée entre les nœuds tout en délivrant un haut niveau de performance via plusieurs mécanismes de cache (en mémoire et sur SSD). Le file system maintient de multiples copies de chaque bloc de données (le nombre de copies étant fonction des politiques définies par l’administrateur).

Sur chaque nœud est aussi installé VMware vSphere ainsi qu’une machine virtuelle de contrôle qui est en fait la machine virtuelle SpringPath. Cette dernière accède aux ressources de stockage (disques durs et SSD) présentes sur les machines en mode PassThrough (via l’API VMware VM_DIRECT_PATH) et permet de les incorporer dans le système de fichiers distribué. Ce système de fichiers est alors présenté aux VM sous la forme d’un point de montage NFS supportant les API VAAI (ce qui permet notamment de contrôler les capacités de snapshot et de clonage depuis l’hyperviseur). 

Une offre composée de trois nœuds différents.

L’offre HyperFlex de Cisco débute avec trois familles de nœuds. Les nœuds Cisco HyperFlex HX220c M4 s’appuient sur les serveurs Rack 1U du constructeur et peuvent accueillir jusqu’à 6 disques SAS de 1,2 To, 1 SSD de 120 Go pour les logs et 1 SSD de 480 Go pour le cache (la capacité brute disponible par nœud étant au maximum celle des disques durs, soit 7 To).

Le second type de nœud s’appuie sur les serveurs rack 2U de Cisco. L’HyperFlex HX240c M4 peut accueillir un maximum de 23 disques SAS de 1,2 To et 1 SSD de 1,6 To pour le cache. Comme dans le HX220, un SSD de 120Go, installé sur une carte PCIe sert de disque de log.

Une dernière configuration permet de mixer des serveurs lames Cisco UCS B200 M4 avec un cluster à base de nœuds HyperFlex HX240c M4. Les lames ne contribuent pas au cluster de stockage faute d’espace disque mais peuvent consommer ses ressources.

Selon Cisco, les prix d’un cluster de trois nœuds Hyperflex débutent sous la barre des 60 000$, sans licence vSphere mais avec un an de support 24/7.

Hedvig

Hedvig est le fruit des travaux d’une équipe menée par Avinash Lakshman le co-inventeur de la base NoSQL Dynamo chez Amazon AWS et créateur de Cassandra chez FaceBook. Après son départ de FaceBook, Lakshman a tourné son regard vers le monde du stockage et a mené le développement de la plate-forme de stockage Hedvig, une solution de stockage distribuée supportant des protocoles en mode bloc (iSCSI), fichiers (NFS) et objet (S3 et Swift).

La particularité de l’architecture de stockage d’Hedvig est sa flexibilité qui permet de la déployer comme une solution de software defined storage autonome à grande échelle ou comme base d’un déploiement hyperconvergé. De ce point de vue, Hedvig rappelle un peu la technologie ScaleIO d’EMC. Sauf que par rapport à la solution du géant d’Hopkinton, la plate-forme d’Hedvig offre un support protocolaire plus large et un ensemble de services de données bien plus riche (gestion de la Qos, tiering automatisé, déduplication et compression, snapshot, clones réplication…).

La plate-forme d’Hedvig supporte aussi un vaste choix d’hyperviseurs et d’OS et laisse ses utilisateurs largement libre de l’archiecture de déploiement qu’ils souhaitent retenir.

Hedvig est vendu à partir de 5000$ par serveur participant au cluster de stockage (tous les nœuds ne sont pas nécessairement des fournisseurs, mais peuvent accéder au stockage via le proxy client d’Hedvig. Un mode de licence perpétuel facturé aux environ de 50 centimes par gigaoctet est aussi proposé.

Hewlett-Packard Enterprise

HPE dispose de sa propre technologie d’hyperconvergence basée sur sa technologie historique de stockage distribué StoreVirtual (ex-LeftHand) et il a choisit de la déployer sur  une partie de sa gamme de serveurs rack. Le fer de lance de l’offre hyperconvergée du constructeur est le HP Converged System 250-HC StoreVirtual (ou CS 250-HC). Cette appliance tout-en-un s’appuie sur un châssis Proliant Gen9 de la gamme appolo à même d’accueillir jusqu’à 4 nœuds serveurs Proliant Gen9 à base de puces Xeon E5. Elle arrive configurée par défaut avec VMware vSphere. HPE propose un second modèle baptisé HC 380 dérivé d’un serveur rack bi-socket Proliant 380 G9.

L’ interface de configuration fournie par HPE permet de déployer une les serveurs de la gamme HC en moins de 15 minutes et comme avec les autres machines de la gamme HC, les nouveaux nœuds serveurs sont détectés automatiquement et ajoutés de façon transparente au cluster existant. La limite maximale de nœuds serveurs est de 16 machines par cluster (ce qui est en fait une limite imposée par la technologie StoreVirtual).

HPE a certes l’avantage de proposer une solution relativement économique avec sa gamme HC, mais sa technologie de stockage reste en retard sur le plan fonctionnel par rapport aux solutions concurrentes.

Une technologie de stockage perfectible

Hérité du rachat de LefHand, StoreVirtual est certes fiable mais il est plutôt inefficace en matière de gestion des capacités. La technologie de stockage d’HPE requiert une protection RAID locale des données en plus du « network RAID » entre nœuds, ce qui fait que le ratio capacité utile sur capacité brute est en général nettement inférieur à celui proposé par les technologies concurrentes. De plus, StoreVirtual ne met en œuvre aucune technologie d’optimisation (compression ou déduplication), des fonctions de plus en plus standards chez les concurrents. StoreVirtual gère en revanche le tiering de données et fournit un ensemble riche de services de données (snapshots, clones, réplication…).

En l’état, la technologie est bien adaptée aux PME ou aux petits sites, mais elle apparaît en retrait des meilleures offres hyperconvergées du marché sur le plan stockage pour des usages plus évolués. Pour ces usages, HPE propose aussi le HC380 avec VMware, mais avec un niveau d’intégration qui reste encore en deça de celui proposé par un acteur comme EMC avec VxRail. La firme a donc encore un peu de travail devant elle pour rivaliser avec les meilleures offres du marché en matière d’hyperconvergence.

Scale Computing

Fondé en 2007 et distribuée en France par Hermitage Solutions, Scale Computing s’est fait une spécialité des hyperconvergés pour le marché des PME. La firme revendique aujourd’hui plus de 1 500 clients dans le monde pour sa technologie.

Cette dernière s’appuie sur un OS hyperconvergé maison, baptisé HyperCore, qui  combine l’hyperviseur KVM avec un système de fichiers distribué à base de logs baptisé Scribe (Scale Computing Reliable Independent Block Engine) et une interface d’administration graphique d’une grande simplicité.

Au cœur de la plate-forme, la couche de stockage distribuée Scribe permet d’agréger les supports de stockage présents sur chacun des nœuds pour les présenter aux machines virtuelles comme un pool de stockage sécurisé (la technologie permet de se protéger contre les défaillances individuelles de disques ou de nœuds). Scribe supporte aussi des services de données avancés comme les snapshots, le clonage de VM ou la réplication de données (par VM ou groupe de VM). La réplication s’effectue du cluster primaire vers un second cluster installé sur un second site à des fins de haute disponibilité. Selon le constructeur, la technologie supporte aujourd’hui jusqu’à 5 000 snapshots par VM. Pas la peine pour l’instant, de chercher des fonctions de compression ou de déduplication de données.

Des configurations à base de disques durs et des versions hybrides

Le constructeur propose aujourd’hui des configurations à base de disques durs et des configurations hybrides alliant disques durs et SSD. Sur ces dernières, Scribe fait usage d’un mécanisme de tiering de données permettant de paramétrer de façon fine les niveaux de qualité de service par VM.

Il faut un minimum de trois noeuds pour constituer un cluster hyperconvergé opérationnel. Les prix débutent à environ 30 000 $ pour un cluster à base de disques durs et à environ 61 500 $ pour un cluster de trois machines. Ces prix comprennent les licences pour les services de données avancés (snapshots, réplication multisite et failover/failback entre sites) ainsi que la licence pour l’hyperviseur et les services de base de Scribe.

Pour approfondir sur Virtualisation de serveurs