Scale met une appliance hyperconvergée dans un cube de 12cm
Avec au moins trois nœuds, chacun épais de 4cm sur 11cm de côtés, le cluster HE150 exécute toutes les applications de vidéosurveillance, de PLV et d’encaissement d’une boutique dépourvue de local IT.
Scale Computing innove dans le domaine des infrastructures hyperconvergées avec des nœuds miniatures, les HE150, basés sur un NUC d’Intel. Scale Computing entend avec cette configuration adresser dans des milieux contraints, par exemple une boutique, les besoins applicatifs typiques du edge computing. Dans le domaine de la distribution, il s’agit le plus souvent du traitement d’images de vidéosurveillance, mais aussi de l’exécution de postes virtuels dédiés, comme les caisses enregistreuses ou les écrans multimédia pour la PLV.
L’intérêt premier de ces machines est de pouvoir constituer un cluster d’au moins trois nœuds qui consomme très peu d’électricité et se dissimule dans n’importe quel mobilier. Les dimensions des NUC utilisés ici sont en effet d’un peu plus de 11cm de côté sur environ 4cm d’épaisseur par nœud. L’intérêt second est de pouvoir administrer depuis le siège d’une entreprise ce cluster qui exécute des machines virtuelles et assemble les disques de ses nœuds en un seul pool de stockage, grâce au système de virtualisation HC3 de Scale Computing.
« Les succursales, les sites de production, et les boutiques n’ont généralement pas de personnel IT sur place. Notre solution permet d’installer un cluster sans avoir de connaissance technique sur site et d’en piloter plus d’un millier depuis le siège de l’entreprise », argumente Scott Loughmiller, le co-fondateur de Scale Computing, lors de l’IT Press Tour 33. Cet événement consiste à emmener certains journalistes à la rencontre des innovations liées au stockage dans la Silicon Valley.
En configuration 3 nœuds, un cluster HE150 coûte environ 5000 dollars. Scale Computing commercialisait précédemment des nœuds hyperconvergés HE500/HE550 au format rack 1U, qui portaient le prix d’un cluster de trois nœuds à 15.000$.
Un cluster cubique de 12 cm de côté pour exécuter 10 VMs dans l’arrière-boutique
Chaque nœud HC150 contient un processeur x86 i3 (2 cœurs, de 2,1 à 4,1 GHz), i5 (4 cœurs, de 1,6 à 4,2 GHz) ou i7 (6 cœurs, de 1,1 à 4,7 GHz), ainsi qu’une RAM pouvant aller de 8 à 64 Go et un SSD au format M.2 connecté en NVMe qui offre une capacité allant de 250 Go à 2 To. En clair, Scale propose ni plus ni moins que de déployer un cube de moins de 12 cm de côté qui offre jusqu’à 18 cœurs, 192 Go de RAM et 6 To, pour exécuter, en moyenne selon lui, 10 machines virtuelles.
Le système HC3 repose quant à lui sur un Linux avec un hyperviseur KVM étendu, renommé ici HyperCore OS. Selon Scale, cette construction permet à la couche de virtualisation de n’occuper que 4 Go en RAM, là où les solutions concurrentes – on pense à VMware et Nutanix – occuperaient 24 Go de RAM.
La particularité de ce système est par ailleurs d’intégrer une couche de virtualisation du réseau, laquelle permet aux nœuds de fonctionner en cluster via un simple switch Ethernet en 1Gbit/s qui relie leurs ports individuels. Le cluster est d’ailleurs livré sur site dans un carton qui comprend simplement 3 NUCs, un switch de Netgear, une alimentation avec trois câbles et trois cordons RJ45.
Concernant la gestion de chacun des SSD en un seul pool de stockage, HC3 repose sur le SDS Scribe mis au point par Scale Computing. Scibe apporte des fonctions de haut niveau comme la réplication des blocs entre nœuds pour éviter les défaillances, la déduplication pour réduire la taille des informations stockées, les snapshots pour conserver une sauvegarde de l’état du système à un moment T, ou encore la réplication automatique des disques virtuels vers un site de secours. Scribe intègre même une notion de tiering avec son module Heat qui déplace automatiquement les données les plus chaudes entre les nœuds pour qu’elles soient au plus proche des VMs qui les utilisent.
En termes d’administration, la console centrale permet de déployer depuis le siège des images systèmes préconfigurées mais aussi d’y installer des paquets sans nécessiter de redémarrage, de répartir les charges de travail à chaque fois qu’un nouveau nœud est ajouté, de monitorer l’ensemble des grappes de nœuds de manière graphique.
Notons pour finir que VMware et Nutanix planchent également de leur côté sur des infrastructures hyperconvergées à base de NUC. En octobre, Nutanix avait ainsi fait la démonstration à Copenhague de XI IoT, un système qui pour l’heure, se contente d’installer à distance un hyperviseur et ses VMs sur un NUCs. Néanmoins, cette solution ne permet pas encore de déployer des NUCs en clusters.