La continuité des services informatiques, un truc de riches ?
Grâce aux technologies telles que le Cloud et la virtualisation, la continuité des services IT n'implique plus nécessairement l'achat de datacenters supplémentaires. Qu’on se le dise.
La majorité des entreprises accordent une grande importance aux stratégies de sauvegarde et de restauration. Au moindre incident dans l'environnement informatique, l'objectif est de revenir le plus vite possible à un point connu dans le passé.
Toute stratégie de sauvegarde et de restauration vise à rétablir le système à un point du passé aussi proche que possible du point correspondant au moment de la restauration. Techniquement parlant, il s'agit de rapprocher au maximum l'objectif de point de restauration (RPO) et l'objectif de délai de restauration (RTO). Les instantanés et les machines virtuelles contribuent à ramener les temps d'indisponibilité à quelques heures, voire quelques minutes.
Un problème demeure cependant : entre le RPO et le RTO, l'activité est au point mort. La plateforme informatique est soit en panne, soit occupée par la restauration. Tant que le datacenter n'est pas de nouveau sur pied, l'activité de l'entreprise est littéralement bloquée par l’IT.
Les entreprises particulièrement sensibles aux temps d'indisponibilité et aux baisses de revenus ont cherché des moyens d'assurer la continuité métier.
Certaines ont eu recours à la redondance N+1 des composants informatiques par le biais du clustering et de la virtualisation, tandis que d'autres ont opté pour la mise en miroir totale d'un environnement actif dans un datacenter distant.
Si la mise en miroir garantit la récupération complète d'un datacenter en l'espace de quelques minutes après une panne catastrophique, le coût de cette solution est néanmoins prohibitif : il représente plus du double de l'investissement nécessaire pour un seul datacenter. En effet, à l'achat du datacenter supplémentaire et des équipements associés s'ajoutent les logiciels et les outils indispensables pour surveiller le système et en assurer la maintenance, et pour identifier les problèmes et gérer le basculement.
Les entreprises capables d'un tel investissement se comptent sur les doigts de la main. Mais les temps changent et la continuité des services IT (ou quelque chose d'approchant) est désormais à portée de portefeuille de la plupart des entreprises.
Nouveau plan de continuité des services informatiques
Il y a fort à parier que votre plateforme IT actuelle représente un mélange d'applications distinctes exécutées sur des plateformes physiques, uniques ou en cluster, parallèlement à des systèmes virtualisés - et pourquoi pas, à un ou deux Clouds privés.
Votre infrastructure virtualisée contient des VM et dans le Cloud. La feuille de route inclut peut-être des conteneurs. Il existe plusieurs technologies de conteneurs, notamment Docker, CoreOS Rocket, Microsoft Azure Drawbridge pour Windows Server et les conteneurs Canonical LXD Linux.
La première étape, pour élaborer un plan de continuité informatique, consiste à créer une base de données des actifs de l'entreprise répertoriant toutes les applications utilisées. Pour nombre d'entreprises, assurer la continuité ne signifie pas mettre en miroir ces applications à l'identique, en reproduisant la même expérience utilisateur que l'infrastructure d'origine. Il s'agit en revanche de poursuivre l'activité avec les processus clés, jusqu'à ce que le datacenter principal soit de nouveau opérationnel.
Une application essentielle exécutée sur un serveur physique doit continuer à fonctionner en cas de panne, sans nécessairement être répliquée sous sa forme physique. Il est possible d'exécuter une application en tant que machine virtuelle, ce qui permet au service informatique de démarrer l'image rapidement en cas de besoin et de fournir une expérience adéquate pendant l'intérim.
Les workloads considérés comme non essentiels, tels que les programmes de gestion de la paie ou des achats, peuvent être ignorés pendant la panne.
Evaluez les outils de gestion des transferts de workloads entre la plateforme IT principale et la plateforme de continuité de service.
Certains produits packagent et provisionnent les applications ou conteneurs pour leur transfert entre environnements. Ces outils n'ont pas besoin d'un environnement de sauvegarde à chaud : le provisioning est réalisé dynamiquement sur des serveurs nus ou virtuels, ou encore dans le Cloud.
Les entreprises qui combinent le Cloud et la virtualisation dans leur plan de récupération font l'économie d'un datacenter miroir et évitent également les dépenses liées aux ressources inutilisées. Elles ne paient que l'utilisation de la plateforme lorsqu'elle est nécessaire pour assurer la continuité des services informatiques, ce qui est à la portée de la plupart d'entre elles.
Comment gérer les données en cas de panne
Reste la question des données pendant et après une panne. Il n'est pas aussi simple de packager des données que des applications. En effet, une application est une entité relativement statique, alors que les données sont extrêmement dynamiques.
Une solution consiste à utiliser des fonctions de sauvegarde et de restauration, mais vous rencontrerez les mêmes problèmes de RPO et de RTO que dans le cas d'une stratégie globale de sauvegarde et de restauration.
Optez plutôt pour la virtualisation de base de données. Des éditeurs proposent des outils permettant d'effectuer des copies des bases de données en un temps record et de les utiliser localement en consommant très peu de ressources.
Cette technologie est également applicable à distance : la base de données est copiée une fois, après quoi seuls les deltas sont copiés. En cas de panne dans l'environnement principal, une copie « live » des données est disponible sur le site distant. Les ressources n'ont pas besoin d'être exécutées « à chaud » sur le site cible, mais vous bénéficiez néanmoins d'une excellente continuité de service.
Une fois le site de production de nouveau opérationnel, la base de données principale et sa copie sont synchronisées, de sorte qu'aucune donnée n'est perdue.