Arjuna Kodisinghe - Fotolia
Suse veut populariser les baies de stockage Software Defined
Le système Suse Enterprise Storage 2 transforme un cluster de serveurs classiques en une baie de stockage.
Suse a désormais lui aussi une solution de Software Defined Storage (SDS) capable de transformer un cluster de serveurs en une baie de stockage SAN. « Notre nouveau Suse Enterprise Storage 2 (SES 2) est toujours basé sur le projet Open source Ceph. Mais alors que Ceph ne sert encore qu’à faire du stockage objet, notre version 2 est désormais accessible en mode bloc, via un pilote iSCSI de notre cru compatible avec VMware, Hyper-V, Windows, AIX et, bien entendu, les serveurs & hyperviseurs Linux », s’est félicité Larry Morris, le directeur produit stockage de Suse, lors du salon SUSECon qui s’est tenu début novembre à Amsterdam.
Des baies SAN 50% moins chères
L’intérêt du SDS est qu’à capacité égale, une baie de stockage, composée de serveurs x86 générique et de leurs disques internes, coûte environ 50% moins cher qu’une véritable baie SAN de marque EMC VNX, NetApp FAS, HP et autres Dell Compellent. Et, ce, même en comptant les 10 000 dollars de licence logicielle qu’il faut débourser pour que Suse Enterprise Storage 2 chapeaute ici un cluster de huit nœuds.
On trouve des systèmes de SDS chez VMware (Virtual SAN), EMC (ScaleIO), HP (StoreVirtual), Microsoft (Clustered Storage Spaces) ou encore Nexenta (NexentaStor).
Ces logiciels incarnent déjà le volet stockage dans les infrastructures dites « hyperconvergées » (par opposition à « convergées » qui disposent d’une vraie baie SAN) que vendent les différents fabricants de serveurs. On s’attend à présent à voir déferler des « appliances SDS » pour concurrencer plus directement les baies SAN. LeMagIT évoquait récemment un appareil de ce type assemblé par SanDisk et Nexenta. Suse en propose déjà deux autres modèles avec le fabricant allemand Thomas-Kenn.
D’autres, toujours basés sur SES 2, devraient voir le jour dans les prochaines semaines. « Nous avons mis au point une version ARM 64 bits de la SES 2 qui intéresse au plus haut point les fabricants, car elle va leur permettre de proposer des baies SDS moins chères que celles à bases de nœuds x86 », dévoile Larry Morris. En l’occurrence, la SES 2 est d’ores et déjà certifiée sur les cartes mères à base de processeur ThunderX, le processeur ARM 48 cœurs de l’Américain Cavium. En ce qui concerne le monde x86, HP, Fujitsu, Lenovo, Dell, Supermicro et consorts lancent déjà des configurations orientées SDS au format 4U, intégrant 1 serveur bi-Xeon et 24 disques.
Vers un Ceph indépendant et un NAS
De base, Ceph offre bien un mode bloc, mais celui-ci n’est accessible qu’à un serveur Linux ; ce qui limite généralement son usage au stockage de machines virtualisées avec KVM. Son mode objet, qui revient à lui envoyer des fichiers au travers d’un portail Web ou via des APIs RESTful - exactement comme on le fait avec le service de stockage en ligne S3 d’AWS - est donc le plus utilisé pour simuler un stockage en Cloud public qui reste dans un datacenter privé. « C’était le but intial de Ceph, lorsqu’il a été conçu au sein du projet OpenStack. Mais Ceph est si prometteur dans le SDS que la communauté Open Source vient de décider d’en faire un projet autonome, avec son propre conseil de surveillance qui arbitre les directions de son développement », indique Larry Morris.
En l’occurrence, Ceph supporte désormais des fonctions aussi avancées que celles d’EMC ScaleIO, réputé le SDS le plus avancé. Citons une scalabilité jusqu’à plusieurs milliers de nœuds, une collaboration de tous les processeurs x86 du cluster pour reconstruire des To de données perdus en une poignée de secondes (contre plusieurs jours en RAID) et l’utilisation de la RAM présente dans les nœuds pour faire office de stockage tier1 rapide. Aux côtés de Suse, Red Hat et Canonical, le destin de Ceph est désormais piloté par Cisco, Fujitsu, SanDisk, Intel et le CERN.
Outre un accès en iSCSI, SES 2 ajoute à Ceph le chiffrement des données. En revanche, il ne s’agit pour l’heure que de chiffrement a posteriori, une fois les données écrites. Cette façon de faire, ainsi que l’absence de compression à la volée, deux caractéristiques typiques des anciennes baies SAN, prohibent l’utilisation de disques SSD dans le cluster Ceph, du fait de l’usure prématurée des cellules Flash qui s’en suivrait. « Le chiffrement et la compression à la volée arriveront au premier semestre 2016 avec la version 3 de notre solution », assure Larry Morris.
Évolution majeure, la SES 3 apportera en outre les outils d’administration qui manquent encore (installation simple, monitoring graphique, gestion tout à la souris) ainsi qu’un système de fichiers propre, CephFS, qui permettra au cluster SES de se comporter comme un NAS CIFS/NFS pour partager ses fichiers entre plusieurs serveurs. Il faudra attendre encore plus tard pour voir arriver la déduplication (à la volée ?) et la réplication asynchrone des contenus entre deux sites distants.
Pour l’heure, du stockage tier3
Selon Gartner, 80% des entreprises seraient susceptibles de migrer leur stockage vers du SDS d’ici à 2018. « Il y a une demande très forte de la part des entreprises pour ce type de solutions, au point qu’elles veulent avancer plus vite que la musique. Nous préférons pour l’instant nous focaliser sur une solution de type Tier3 qui apporte de la capacité à bas coût et nous verrons à l’avenir comment proposer du stockage performant », lance Christophe Le Dorze, ingénieur avant-ventes chez Suse France. Selon lui, le stockage tier3, ou « archivage actif », couvre 60% des besoins en stockage d’une entreprise : ce sont les données auxquelles on n’accède pas souvent, mais lorsque cela arrive, il faut y accéder rapidement. Parmi celles-ci, toutes les vidéos d’un distributeur de médias en ligne, toutes les données des patients pour un CHU, tous les documents devenus numériques suite au passage à la GED et puis, bien sûr, toutes les sauvegardes.
Software Defined oblige, les baies SDS ont des nœuds qui communiquent entre eux par l’intermédiaire d’une connectique réseau Ethernet classique. Or, si l’on ne veut pas se retrouver avec des clusters SDS qui coûtent autant qu’une vraie baie SAN, il faut pour l’heure limiter cette connectique à du 10GbE. « Nous discutons avec un client français qui a l’intention de monter une baie SDS avec SES 2 pour héberger sa base d’emails et des applications analytiques. Mais, dans son cas, il n’achète pas de cluster, il compte réutiliser celui qui lui servait aux traitements de supercalcul (HPC) et dans lequel les nœuds sont reliés entre eux par une connectique Infiniband. Le fait de pouvoir recycler un équipement est une exclusivité du SDS », conclut-il.