Stockage : comment articuler technologie SDS et stratégie multicloud
Les solutions de SDS servant à regrouper différentes ressources de stockage en un volume global, elles s’imposent pour travailler à cheval entre un site et des services cloud. Voici comment s’y prendre.
Créés il y a un peu plus de cinq ans sur le modèle des réseaux virtualisés SDN (Software Defined Network), les systèmes de stockage virtualisés SDS (Software Defined Storage) consistent à ajouter une couche d’abstraction logicielle au-dessus des équipements physiques de stockage. Cette couche d’abstraction prend en charge le contrôle global de tous les équipements de stockage, c’est-à-dire des fonctions d’administration jusqu’à l’application des règles d’usage.
De nos jours, un SDS est considéré comme un moyen de déployer des ressources de stockage indépendantes des matériels, avec l’avantage de ne pas cadenasser les données à leur point d’origine. Cette technologie permet typiquement de créer un volume virtuel à cheval sur plusieurs infrastructures pour déplacer librement les données au plus proche de l’endroit où s’exécutent les applications qui en ont besoin.
La SNIA (Storage Network Industry Association) définit plus précisément un SDS comme du stockage virtualisé par logiciel avec une interface qui offre un service d’administration pour plusieurs pools de stockage qui ont les caractéristiques suivantes :
- Un chemin virtualisé vers les contenus qui supporte de fonctionner en mode blocs, fichiers et objets.
- Des APIS d’administration standardisées qui rendent possible l’administration automatisée, afin de réduire les délais et les efforts des équipes IT.
- Une élasticité qui permet d’augmenter dynamiquement la taille, les performances, la disponibilité et la fiabilité de l’infrastructure de stockage sans que cela ait un impact sur les applications ni sur les utilisateurs.
- Une utilisation transparente et en self-service qui permet aux utilisateurs du stockage de surveiller et de gérer leur consommation et le coût des ressources qu’ils utilisent.
Ces caractéristiques étaient d’abord appliquées aux infrastructures de machines virtuelles sur site. Le but était de combiner les équipements de stockage déjà en place – malgré leurs différences de gamme et de performance – pour permettre aux traitements virtualisés d’accéder à un pool de stockage unifié.
L’avènement du cloud hybride, un modèle dans lequel les entreprises déploient leurs traitements à la fois sur site et sur un ou plusieurs services de cloud, a incité les fournisseurs à étendre leurs technologies de SDS aux environnements multicloud. Il s’agit le plus souvent de proposer un namespace unifié pour les protocoles fichiers, ou un pool objet dans le cadre du stockage objet. Ceci afin d’épargner aux utilisateurs et aux applications la tâche de savoir ce qui est déployé et où.
Les scénarios d’usage
Les entreprises utilisent un SDS en environnement multicloud pour éviter les silos de stockage. Ainsi, elles éliminent l’inertie, se donnent la capacité de déplacer dynamiquement les données entre les plateformes et peuvent utiliser les mêmes données avec une grande variété d’applications. Les applications qui en tirent parti sont les bases de données (en mode blocs), les postes virtuels VDI (en mode fichiers), les applications de dernière génération (en mode objets), les sauvegardes ou autres PRA, ainsi que les systèmes d’analytique, d'intelligence artificielle ou autre Machine Learning.
Un SDS multicloud permet plus particulièrement aux entreprises de réduire les coûts du stockage sur le long terme, mais aussi d’avoir un stockage plus adapté à l’activité. Il permet de réduire ou d’augmenter la capacité selon les besoins et de rapprocher les données des utilisateurs, que ce soit pour des questions de performance ou de respect des réglementations.
A titre d’exemple, la banque Citibank a étendu sa flotte de plus de 20 datacenters avec des services cloud et a relié l’ensemble avec une plateforme entièrement « software-defined » qui comprend un volet stockage. Selon ses dires, cette infrastructure software-defined lui permet de réduire les temps de déploiement des nouvelles applications, d’accélérer les mises à jour et d’industrialiser les processus d’administration de l’ensemble.
Selon un rapport d’IDC, les architectures multicloud utilisent dans 81 % des cas au moins deux services d’IaaS publics, plus un ou plusieurs clouds privés. Et ces déploiements incluent toujours au moins un service de stockage. En somme, la question de savoir comment implémenter un SDS multicloud est donc une véritable problématique actuelle des entreprises.
Choisir le bon SDS
Une très grande variété de SDS multicloud est déjà disponible. Mais il convient de garder à l’esprit que cette technologie reste jeune et que l’offre s’enrichit sans arrêt. Le point le plus important à retenir est que les fonctions et les clouds supportés varient d’une solution à l’autre. De fait, avant d’investir, une entreprise doit faire particulièrement attention aux compatibilités avec les ressources qu’elle utilise déjà. Ceci est d’autant plus critique que nous parlons ici d’une technologie qui doit incarner la colonne vertébrale du stockage en multicloud.
Les SDS les plus courants sur le marché sont :
- DataCore SANsymphony. Ce SDS sait regrouper un ensemble hétérogène de matériels de stockage en un pool partagé et administré de manière centrale. Il propose par ailleurs une fourchette assez vaste de fonctions comme le tiering, le cache, la compression, la déduplication, le chiffrement, les snapshots, la réplication et le thin provisioning. Sa passerelle cloud est compatible avec AWS, Azure et tout cloud privé ou public reposant sur une infrastructure OpenStack.
- Datrium Automatrix. Il s’agit d’un système qui gère ensemble plusieurs ressources de stockage – sur site comme en cloud – et s’en sert pour répartir automatiquement les données dont il a la charge en stockage primaire ou secondaire, mais aussi en sauvegardes ou en plans de reprise d’activité.
- Hedvig Distributed Storage Platform regroupe les ressources de stockage sur site, en cloud IaaS et même celles des logiciels de sauvegarde en ligne (SaaS), puis redécoupe l’ensemble en volumes virtuels au format blocs, fichiers, ou objets selon les besoins des applications.
- IoFabric sert à migrer automatiquement les données des plateformes de stockage sur site vers les services S3 et Glacier d’AWS, selon des règles de performance, de capacité disponible, de bande passante et de préservation.
- MinIO est un système Open source qui sert à créer, à cheval entre des plateformes de stockage sur site et de l’espace en ligne, une ressource de stockage objet S3. Il est compatible Azure Blob, GCP, ainsi qu’avec toute zone de stockage objet en cloud public ou privé qui répond au protocole S3. Son avantage supplémentaire est de gérer un réseau de caches qui accélère la mise à disposition des contenus et réduit la circulation des données entre les différentes ressources physiques.
- NetApp Ontap. Le système des baies NetApp englobe désormais dans les espaces de stockage dont il a la charge, des ressources sur AWS, Azure et GCP. Son module Cloud Volumes Ontap fonctionne en modes blocs, fichiers ou objets et applique à toutes les ressources la même fourchette de fonctions d’administration et d’optimisation.
- Veritas Multi-Cloud Management Platform est une console qui permet aux équipes IT de visualiser et migrer les données comme les traitements entre des ressources de stockage sur site et d’autres en cloud. Il est compatible AWS, Azure, GCP, IBM Cloud et Oracle Cloud.
Cette liste n’est pas exhaustive. On trouve également des systèmes de stockage qui fonctionnent à cheval entre un site des ressources en ligne chez Nexenta, Reduxio, Scality ou encore StorPool. Et, bien qu’il ne s’agisse pas de SDS à proprement parler, les piles d’infrastructure hybrides que sont Azure Stack, OpenStack ou encore VMware vCloud facilitent également le libre déplacement des données entre différents environnements compatibles avec leurs écosystèmes respectifs.
Citons enfin OpenSDS, une alternative Open source chapeautée par la Linux Foundation pour adresser les problématiques de l’intégration du stockage dans des environnements élastiques ou nativement cloud. Son but est d’interconnecter des systèmes de données en silos pour construire « une plateforme de données intelligente et auto-gérée ».