Cet article fait partie de notre guide: Le Who's Who 2016 de l'Hyperconvergence

Les acteurs majeurs de l'hyperconvergence

LeMagIT vous propose un tour d'horizon des solutions hyperconvergées du marché en commençant par les trois technologies leaders du marché, celles de Nutanix, Simplivity et VMware.

Au cours des deux dernières années, le nombre d’acteurs sur le marché de l’hyperconvergence n’a cessé de grossir. Aujourd’hui, le marché compte trois leaders, Nutanix, Simplivity et VMware et de multiples challengers comme HPE, Cisco/SpringPath, Hedwig, Scale Computing, Atlantis Computing ou Pivot3. Dans cet article, nous vous proposons un tour d'horizon des technologies des trois leaders du marché. Un second article reviendra sur les offres des multiples challengers.

Nutanix

Nutanix est l’un des pionniers de l’hyperconvergence. La firme a fait ses débuts en 2011 avec le lancement de ses premiers serveurs convergés, les NX-2000 basés sur un design SuperMicro Twin – depuis supplantés par les NX séries 1000, 3000 et 8000 disponibles en versions hybrides et 100 % Flash et par la série 6000 (hybride). L’offre Nutanix est aussi commercialisée en OEM par Dell et Lenovo, qui proposent la technologie de l’éditeur sur leurs propres serveurs. Et Nutanix supporte depuis peu sa technologie sur les serveurs UCS de Cisco (qui, vexé, a depuis ejecté Nutanix de sa liste de partenaires).

Chaque serveur Nutanix embarque une ou plusieurs puces Xeon et dispose de deux connecteurs 10Gigabit ainsi que d’une série de SSD et de disques durs positionnés en frontal dans le châssis (1 à 2 SSD par nœud et 4 disques SATA ou 6 SSD pour les nœuds 100 % Flash denses). Le tout est virtualisé avec VMware vSphere, Hyper-V ou avec la propre déclinaison maison de KVM, baptisée Acropolis.

La sauce secrète de Nutanix est son système de fichiers distribué, NDFS, qui va permettre d’agréger la capacité disque des nœuds en un espace de stockage unique partagé qui va être mis à la disposition des machines virtuelles installées sur le cluster.

Dans la pratique, chaque nœud héberge une VM de contrôle qui pilote l’ensemble des opérations de stockage pour le nœud et participe aussi au fonctionnement du cluster de stockage. Cette VM de contrôle présente aux différentes VM un stockage NFS (ou SMB v3 pour la version Hyper-V). En priorité, les opérations d’écritures sont dirigées vers les SSD — qui servent à la fois pour le stockage et le cache — puis immédiatement dupliquées sur un autre SSD situé sur un nœud proche du cluster avant acquittement et persistance. Ces données sont dédupliquées à l’ingestion, afin de réduire l’empreinte des données sur le stockage. Si les données écrites ne sont pas accédées de nouveau rapidement, elles sont progressivement migrées de l’étage Flash vers les disques durs via un mécanisme de tiering.

L’objectif de la VM de contrôle de chaque nœud est de servir de façon optimale les machines virtuelles locales, tout en participant aux autres tâches du cluster. En cas de déplacement d’une VM d’un nœud vers un autre (via vMotion ou live Migration), les premières opérations d’I/O sont servies via le contrôleur local moyennant la pénalité d’un saut pour accéder aux nœuds sur lesquelles les données sont stockées, mais en tâche de fond les données sont progressivement migrées vers le contrôleur local afin d’assurer que les futures opérations d’I/O pourront être servies de façon optimale par le stockage local au nœud. 

Il est à noter que depuis le mois de juin 2016, Nutanix a aussi ajouté à son architecture la possibilité de délivrer du stockage en mode bloc iSCSI à des serveurs physiques ne participant pas à un cluster Nutanix. Cette option permet à une entreprise qui migre d’une approche traditionnelle vers une architecture hyperconvergée de connecter des serveurs non encore amortis sur le stockage partagé Nutanix. Des services de partage de fichiers SMB 2.1 sont aussi disponibles en version préliminaire depuis la mouture 4.6 de l’OS Nutanix.

Une architecture résiliente

Côté protection des données, la technologie de Nutanix a été conçue pour être résiliente aux pannes tant d’un élément local (disque ou SSD) que d’un contrôleur virtuel ou d’un nœud physique. Des copies redondantes des données sont effectuées afin de garantir la survie de l’architecture à toute forme de panne. Par exemple en cas de défaillance d’un nœud, le système recrée automatiquement de nouvelles répliques sur les autres nœuds afin de maintenir le niveau requis de redondance de données. Nutanix supporte les déploiements en mode Metro-Cluster et la réplication et il est aussi possible de définir le niveau de protection d’une application en déterminant VM par VM le nombre de copies de données que le système doit maintenir sur un cluster ou sur de multiples clusters, ce qui permet de gérer des niveaux de tolérance aux pannes différents en fonction de la criticité des applications.

L’OS de Nutanix, quoique propriétaire, s’appuie sur une multitude de composants d’origine open source. Zookeeper est, par exemple utilisé pour gérer la configuration et l’état de l’ensemble des éléments du cluster, de telle sorte qu’en cas de défaillance, les requêtes I/O sont automatiquement redirigées vers un autre contrôleur jusqu’au retour à un état normal.

De même, les métadonnées sont gérées par une base de données NoSQL dérivée de Cassandra et modifiée pour garantir la consistance des données entre les nœuds. L’architecture du magasin de métadonnées s’apparente à celle d’un « ring » à la Scality, afin d’optimiser le placement des données et la latence d’accés aux métadonnées depuis n’importe quel nœud.

Notons deux derniers points pour en finir avec cette couche de stockage. Tout d’abord, Nutanix supporte l’API VAAI sous VMware ESXi et l’API ODX sous Windows Hyper-V, afin d’accélérer des opérations comme le clonage de VM.

D’un point de vue administration, Nutanix a développé une console avancée, baptisée Prism qui permet de gérer l’ensemble des composants de l’architecture hyperconvergée et de provisionner le stockage. Prism est aussi utilisé par Nutanix pour fournir des fonctions avancées de reporting sur le fonctionnement de l’infrastructure et pour piloter les services offerts par sa technologie. L’intégration est totale avec les consoles d’administration des différents hyperviseurs du marché (vCenter et SCVMM pour vSphere et Hyper-V).

Les prix d’une infrastructure Nutanix débutent aux environs de 25 000 € pour trois nœuds Nutanix Xpress (l’offre PME) et à environ 60 000 € pour une configuration hybride à trois nœuds NX-1000.

Simplivity

Simplivity est avec Nutanix l’un des deux pionniers du marché de l’hyperconvergence. Mais la firme a dès le départ marqué sa différence avec son concurrent en embarquant une riche palette de services de protection de données sur sa plate-forme. Aujourd’hui, la technologie est proposée sous forme d’appliances signées du constructeur (des serveurs en marque blanche d’origine Dell), et elle est aussi disponible dans le cadre d’accords de partenariat noués avec Cisco et Lenovo.

Le fondement de l’offre de Simplivity est son utilisation systématique de la déduplication de données, un processus assisté par un accélérateur matériel (sous forme de carte PCIe) afin de préserver au maximum la performance processeur pour les VM. La déduplication est mise en œuvre à l’ingestion des données pour minimiser l’espace disque, mais aussi pour optimiser les opérations de réplication (LAN ou WAN), et les opérations de sauvegarde et de protection de données. 

Contrairement à certains de ces concurrents, l’architecture de stockage de Simplivity ne repose pas sur un système de fichiers clusterisé. Cela permet et c’est assez unique de déployer la technologie avec un seul nœud (ce qui est notamment pratique pour les filiales, les sites distants, etc.).

Dans la pratique, chaque serveur met en œuvre son propre mécanisme de protection de données (Raid-5 pour les SSD ou Raid-6 pour les disques durs), ce qui permet de se protéger contre une défaillance d’un ou plusieurs périphériqeus de stockage sur un nœud. Sur chaque serveur hyperconvergé, la machine virtuelle de contrôle Simplivity installée sur le système assure l’interface entre le stockage et l’hyperviseur (pour l’instant vSphere et bientôt aussi Hyper-V) et présente les volumes comme s’il s’agissait de partages NFS (ces partages NFS sont accessibles à des serveurs vSphere ne participant pas au cluster de stockage).

Dans une configuration monoserveur, lorsque cette VM de contrôle reçoit une donnée, celle-ci est transmise à la carte PCIe qui acquitte la transaction avant de dédupliquer les données et de les enregistrer sur le serveur local. Si plusieurs serveurs Simplivity participent à un même cluster. Le schéma d’écriture est un peu différent : lorsqu’une opération d’entrées/sorties est traitée par la machine virtuelle de contrôle, elle est envoyée à deux cartes accélératrices qui acquittent chacune la transaction. Ce n’est qu’alors que les données sont dédupliquées par chaque carte et inscrites sur le stockage de chaque serveur. Dans la pratique, cela veut dire que les données de chaque VM sont présentes sur une paire de nœuds.

Afin d’optimiser les performances, Simplivity fait aussi le pari de la localité des données et tente autant que possible de maintenir l’exécution des VM sur le nœud qui dispose des données de la VM.

Des services de protection de données avancés

L’une des grandes forces de Simplivity est que la firme a intégré nativement des services avancés de sauvegarde et de protection de données à son architecture. Un cluster Simplivity peut ainsi sauvegarder ses données vers un autre cluster Simplivity (le constructeur parle de fédération pour un ensemble composé de plusieurs nœuds) par simple création d’une politique de sauvegarde. La granularité de base pour une politique de sauvegarde est le datastore vSphere, mais il est possible d’affiner les règles VM par VM. La sauvegarde tire parti au maximum des capacités de déduplication de la plate-forme.

Une sauvegarde Simplivity est en fait une capture « point in time » autonome des métadonnées de la VM, ce qui ne nécessite aucune opération d’entrées/sorties. Lorsque les sauvegardes sont répliquées vers un site distant, la déduplication est là encore utilisée à plein. Seuls les blocs dont ne dispose pas déjà la cible sont envoyés. Les échanges sur le réseau sont donc très fortement réduits. Restaurer une VM en cas d’incident est l’affaire de quelques clics dans l’interface d’administration. Et depuis la dernière mouture de l’OS de Simplivity, une fonction baptisée Rapid DR permet d’automatiser et d’accélérer les processus de reprise en cas de sinistre. Rapid DR est une alternative à VMware SRM qui permet à un administrateur d’orchestrer la reprise après désastre des différentes machines virtuelles participant à une chaîne applicative.

Pour les utilisateurs, l’outil se présente sous la forme d’un gestionnaire de workflows permettant d’automatiser et d’orchestrer la reprise de VM en cas d’incident ou la bascule complète d’une production sur un site de reprise après sinistre.

Le prix catalogue d’une configuration de base à deux nœuds Simplivity CN1400 (un CPU à 8 coeur, 128 Go de RAM, 2 interfaces 10G EThernet, 2 SSD de 400 Go et 4 disques durs de 1To par serveur) est d’environ 25 000 €, un prix prix qui inclut l'installation et le support de premier niveau mais qui ne comprend pas celui des licences de l'hyperviseur

VMware VSAN

Après le lancement d’une première version de sa technologie de stockage distribuée qui n’est pas restée dans les annales, VMware a réellement fait ses débuts dans l’hyperconvergé en mars 2015, avec l’arrivée de VSAN 6.0, une version totalement réécrite de sa technologie, lancée en parrallèle de son hyperviseur vSphere 6.0.

L’une des grandes innovations de VSAN 6.0 est la mise en œuvre d’un système de fichiers totalement nouveau basé sur la technologie de Virsto, une start-up rachetée par VMware en 2013. Cette greffe a notamment permis au logiciel d’hériter de fonctions avancées de clonage et de snapshots de machines virtuelles. Depuis, VMware a lancé deux nouvelles éditions de VSAN (les 6.1 et 6.2) qui ont encore enrichi les capacités du logiciel avec le support des déploiements en mode stretched cluster et de la réplication de données, ou le support de configuration 100 % Flash avec déduplication inline, compression de données et support de l’erasure coding. Le logiciel s’est aussi vu doté de capacités de gestion de la qualité de service et de fonction simplifiant son administration.

Une technologie complètement intégrée à vSphere

Concrètement, VSAN est un module additionnel payant qui est mis en œuvre comme une extension du noyau vSphere. Il s’intègre donc avec l’ensemble des technologies et API de stockage de la firme (VAAI, VVOLs, VASA, SRM). Pour installer VSAN avec des configurations de stockage hybrides — combinant SSD et disques durs — , trois serveurs au minimum doivent participer au cluster de stockage (les autres serveurs du cluster vSphere peuvent accéder au stockage sans nécessairement contribuer de capacité). Par défaut, la protection des données se fait en mode miroir comme chez Simplivity : chaque donnée écrite sur un nœud est écrite sur un autre nœud. Il est possible, si nécessaire, de spécifier un nombre de copies plus élevé pour accroître la résilience. Dans ce cas, des copies miroir additionnelles sont effectuées (au détriment toutefois de la capacité utile).

Avec VSAN 6.2, il est possible d’optimiser la capacité utile, grâce à l’erasure coding. Pour ce faire, il est toutefois impératif de mettre en œuvre des configurations 100 % Flash et il faut au minimum 4 nœuds pour le Raid-5 et 6 nœuds pour le Raid-6. L’avantage de l’erasure coding est que la protection ne consomme que 33 % de capacité additionnelle en Raid-5 contre 100 % pour le miroir standard. Et en Raid-6, la consommation additionnelle n’est que de 50 % contre 200 %.

Depuis la version 6.1, VMware a renforcé les fonctions de disponibilité de VSAN avec le support des déploiements en mode stretched Cluster (Deux sites reliés par un réseau de niveau 2 et un site relié par un réseau de niveau 3 aux deux autres sites afin d’héberger un serveur témoin). La technologie a aussi été certifiée pour supporter les technologies de clustering de base de données d’Oracle (RAC) et de Microsoft pour fonctionner avec les fonctions de SMP et de tolérance de panne de vSphere.

Outre le support déjà évoqué des configurations 100 % Flash et des technologies de réduction de données (compression/déduplication/erasure coding), la version 6.2 a également apporté la gestion de la qualité de service et de nouvelles fonctions pour améliorée la supervision et l’administration des environnements VSAN.

La version 6.3, en cours de bêta, devrait apporter la gestion des domaines de pannes imbriqués, le support du chiffrement des données au repos et renforcer l’intégration avec vRealize Automation.

Le choix du mode de déploiement

Il est à noter que VSAN est déployable selon deux modèles. Le premier, que l’on qualifiera de « Do it Yourself » permet à une entreprise, en suivant les préconisations d’architecture de VMware de déployer elle-même VSAN sur ses infrastructures. Un second mode de type appliance est aussi proposé en collaboration avec des partenaires. EMC a par exemple développé l’offre VxRail, une appliance qu’il positionne en concurrent frontal des solutions de Nutanix et Simplivity.

VxRail associe les technologies logicielles de VMware avec des serveurs d’origine Quanta — en attendant leur remplacement par des serveurs Dell — et des modules logiciels additionnels signés EMC. Ces logiciels ont pour but d’enrichir les capacités de VSAN de fonctions avancées de sauvegarde et de protection de données. VxRail est aussi assorti d’un support tout-en-un apporté par la division VCE d’EMC, qui agit comme point de support et de maintenance unique. Hitachi Data Systems propose une approche assez similaire avec ses appliances UCP HC V240, le fer-de-lance du constructeur en matière d’hyperconvergence.

Pour approfondir sur Virtualisation de serveurs