Comment tirer parti de l’évolutivité apportée par l’hyperconvergence
L'infrastructures hyperconvergée ou HCI fournit aux équipes informatiques un niveau de simplicité et d'évolutivité appréciable lorsqu'elle est mise en oeuvre pour faire tourner des applications adaptées.
Les responsables informatiques doivent faire face à une demande croissance en matière de ressources de calcul, de stockage et de réseau. Une demande qu’ils doivent tenter de satisfaire tout en contenant leurs coûts et en réduisant les tâches d’administration. Ce défi est pour le moins délicat.
Les géants du web comme Google, Facebook ou Amazon, ont beaucoup travaillé au cours des dernières années pour gérer des services de calcul, de stockage et des services réseau à grande échelle. Une partie de leurs designs influencent aujourd’hui les réflexions en matière d’infrastructure et en particulier celles des acteurs de l’hyperconvergence.
L’infrastructure hyperconvergée s’incarne sous la forme d’une plate-forme d’infrastructure qui combine matériels et logiciels afin de délivrer des services prêts à l’emploi de calcul, de stockage et de réseau à partir de composants serveur standard. Une infrastructure HCI ne s’appuie pas sur un stockage externe, mais fait usage des éléments de stockage (SSD et disques durs) présents dans les serveurs participant au cluster pour assembler un pool de stockage partagé. De façon générale, l’approche des fabricants HCI est distribuée et évolutive. Il suffit d’ajouter des nœuds additionnels pour accroître la performance et la capacité de stockage du cluster, ce qui évite par exemple les effets de seuil des approches traditionnelles. Pour l’instant, la plupart des offres HCI s’appuient sur des serveurs x86 — même si Nutanix a indiqué que sa plate-forme supporte désormais les serveurs Power.
Combiner le calcul, le stockage et le réseau dans un seul élément est utile mais virtualiser ces ressources pour en faire une infrastructure « software defined » est ce qui apporte la vraie valeur à l’ensemble. La virtualisation de l’ensemble des éléments permet d’améliorer le taux d’utilisation des ressources et donc de contenir les coûts. C’est en particulier vrai pour les ressources de stockage, dont l’utilisation a longtemps été un problème, la virtualisation des serveurs étant largement pratiquée.
S’il est facile de créer des VM, gérer des LUN, administrer des volumes de stockage et maîtriser l’ensemble des abstractions présentes dans le monde du stockage (Thin provisioning, snapshots, clones..) est un exercice plus complexe, qui requiert des compétences et qui ralentit le provisioning des applications. Les consoles d’administration unifiée des plates-formes hyperconvergées permettent de simplifier cette gestion en fusionnant en une unique interface la gestion des VM et la gestion du stockage. Au passage, cette fusion permet aussi d’éliminer certains silos au sein des équipes IT. Progressivement, ces bénéfices devraient aussi s’étendre au réseau avec l’ajout de fonctions comme la microsegmentation dans les consoles HCI.
Les bénéfices en matière de Capex
Une infrastructure hyperconvergée offre plusieurs avantages notables en particulier en matière de gestion du capex (dépenses en capital). Du fait de sa nature distribuée, la technologie HCI permet à l’entreprise de faire évoluer la capacité d’un environnement hyperconvergé au fur et à mesure de ses besoins. Il n’est pas nécessaire d’acheter dès le départ la capacité totale requise pour un projet à deux ou trois ans. C’est un avantage clé par rapport aux approches traditionnelles et par rapport aux approches scale-up dans lesquelles il faut dès le départ investir dans un serveur puissant ou dans une baie de stockage coûteuse.
Cet avantage ne concerne pas que les grandes entreprises. Les petites organisations peuvent aussi bénéficier de l’approche HCI. En particulier, le HCI évite d’investir dans un réseau de stockage SAN et permet donc de limiter la facture de stockage.
Des applications qui tirent parti de l’hyperconvergence
Il est intéressant de passer en revue les applications qui s’exécuteront sur une infrastructure hyperconvergée pour déterminer leur fonctionnement dans un environnement distribué. De façon générale, les applications modernes s’adaptent bien aux approches HCI.
Les infrastructures hyperconvergées sont par exemple bien adaptées aux applications Big Data et analytiques du fait de leur capacité à gérer l’affinité du stockage avec les nœuds de calcul. Des plates-formes analytiques Big Data, telles que Spark et Hadoop MapReduce d’Apache, permettent en effet de conserver les données à proximité des ressources de calcul afin de minimiser les transferts de données sur le réseau. De plus en plus, les plates-formes HCI embarquent aussi les composants nécessaires pour déployer des applications conteneurisées et pour s’intégrer dans des approches DevOps.
La technologie HCI est aussi bien adaptée aux applications conçues nativement pour des systèmes distribués. Les bases de données NoSQL, telles que Riak, MongoDB et Apache Cassandra sont capables d’évoluer avec le nombre de nœuds serveur. C’est moins vrai pour les SGBD traditionnels et même lorsque cela est possible — Oracle RAC par exemple — les considérations de licence sont un obstacle important.
Le HCI se marie enfin bien avec les projets de virtualisation de postes de travail.
Une offre de plus en plus diversifiée
Après l’échec d’EVO:Rail, VMware a peaufiné son offre logicielle pour permettre à ses partenaires matériels de concevoir leurs propres appliances hyperconvergées autour de VMware ESXi, VSAN et vCenter. Dell EMC a ainsi dévoilé VXRail, tandis que Hitachi et Lenovo utilisaient la pile de l’éditeur dans leurs propres appliances. Nutanix a quant à lui enrichi de façon significative son offre. Outre ses propres appliances, Nutanix commercialise sa technologie via Dell EMC et Lenovo et supporte également les matériels de HPE et Cisco. L’éditeur a aussi développé son propre hyperviseur, AHV, et bâti autour de lui une offre de cloud hybride de plus en plus sophistiquée. HPE a quant à lui racheté Simplivity, tandis que Cisco mettait la main sur la technologie de SpringPath. De multiples acteurs indépendants proposent aussi leurs solutions comme Scale Computing. Datacore propose aussi une déclinaison hyperconvergée de sa technologie de stockage, tandis que Red Hat propose une pile open source combinant sa technologie de virtualisation avec sa technologie de stockage Gluster.
Les inefficacités et les points à surveiller
Toutes les architectures logicielles d’entreprise ne sont pas à même de tirer parti pleinement de l’évolutivité d’une plate-forme distribuée. Il y a aussi des inefficacités inhérentes à l’architecture hyperconvergée.
Par exemple, certaines applications nécessitent plus de ressources de calcul que de stockage, tandis que d’autres requièrent davantage de stockage. Il faut donc s’assurer que l’infrastructure HCI offrira le bon équilibre de ressources avant de se lancer. De même, il faut garder en mémoire que sur chaque nœud HCI, le stockage consomme une partie des ressources processeur. Il faut donc vérifier que pour certaines applications licenciées au nombre de CPU, cela ne se traduise pas par un surcoût de licence.
Il ne faut pas non plus sous-estimer les changements que peut entraîner l’hyperconvergence sur les équipes. Le déploiement et la supervision, la sauvegarde et les PRA sont affectés par le déploiement d’une infrastructure HCI. Toutefois, pour optimiser le retour sur investissement, vous pouvez adopter les pratiques DevOps qui automatisent les tâches de gestion et prennent en charge le développement et le déploiement de logiciels agiles. Peu importe l’amélioration du matériel et des logiciels, ce sont les pratiques de gestion qui génèrent les résultats.