kalafoto - Fotolia
La containerisation est-elle obligatoire ?
Après l’ère de la virtualisation et de la machine virtuelle (VM), de nouvelles approches se dessinent cherchant à augmenter toujours plus le niveau d’abstraction entre les couches matérielles / systèmes et les couches applicatives. La containérisation s’inscrit dans cette démarche, mais est-ce véritablement une étape incontournable ?
Chercher à déployer et exécuter du code applicatif, sans se soucier des infrastructures sous-jacentes, tel est le graal recherché depuis des années dans le monde de l’IT. Les solutions de virtualisation, enrichies du mode de consommation “Cloud”, ont permis d’accélérer cette abstraction entre les applications et les couches systèmes et matérielles. Si la technologie a pu mettre du temps au départ à se déployer dans les environnements de production, la très grande majorité des entreprises ont aujourd’hui largement adopté cette approche, que ce soit sur leurs propres infrastructures ou via des fournisseurs de services tiers (Cloud public ou privatif), avec des taux de virtualisation importants.
Dans sa logique d’innovation permanente, le marché fait émerger de nouvelles technologies qui viennent pallier les insuffisances et les faiblesses des précédentes. La containerisation s’inscrit dans cette tendance, en présentant de nombreux avantages, du moins sur le papier par rapport à la virtualisation “classique” avec hyperviseur : améliorer le taux de virtualisation par rapport à une capacité matérielle donnée, accroître les performances, ne plus nécessiter de “Guest OS” à administrer, faciliter la portabilité, faciliter les développements de micro-services, etc.
Mais que faut-il en penser ? Comment doit-on l’intégrer dans une stratégie IT ? Ces questions sont d’autant plus d’actualité que la plupart des DSI sont aujourd’hui à un carrefour : quel doit être le centre de gravité du SI, en matière de sourcing de services IT ? Si la tendance vers le Cloud public ne fait guère de doute à terme, la répartition avec le “on-prem” est à considérer avec soin, dans la trajectoire de transformation.
La containerisation peut alors être un des éléments de stratégie, avec plusieurs angles d’attaque.
En la considérant comme un facteur d’abstraction supplémentaire, elle permet de faciliter les stratégies d’achats, en “commoditisant” les plateformes matérielles et en permettant des remises en concurrence plus fréquentes, avec des gains financiers à la clé.
En favorisant la portabilité, elle peut faciliter la répartition entre Cloud public et privé, en fonction de contraintes techniques ou réglementaires, en traitant notamment des problématiques de réversibilité. La containerisation apporte alors une réponse aux entreprises qui souhaitent limiter le risque d’adhérence trop importante avec tel ou tel fournisseur.
En apportant des nouvelles possibilités pour accélérer et fluidifier les développements, elle accélère l’évolution vers les principes DevOps et contribue à la transformation de culture des équipes.
Quels choix technologiques et opérationnels
Toutes ces approches, aussi intéressantes soient-elles, ne doivent pas masquer les questions opérationnelles qui vont se poser. La containerisation, même si elle déjà largement utilisée par les grands fournisseurs de Cloud public pour leurs propres besoins, reste encore une technologie que l’on peut qualifier “d’émergente” pour les entreprises, même si certaines d’entre elles ont pu déjà s’engager sur cette voie. Entre les solutions “Open Source” et les solutions éditeurs, tout un écosystème de produits et services s’avère nécessaire pour déployer l’ensemble des fonctionnalités : gestion de code source, registry, déploiement, management, …. .
Déployer une stratégie de containerisation implique par conséquent d’avoir expérimenté et d’avoir fait des choix dans cet écosystème pour arriver à une solution fiable et performante, alors que les standards ne sont pas encore stabilisés sur le marché.
Au-delà des choix de composants, la gestion des opérations (le “run”) doit aussi être abordée. En effet, les solutions proposées doivent permettre d’assurer un niveau de qualité de service dans le temps, et pas uniquement sur un POC ou une expérimentation. L’organisation des activités de run, leur répartition entre les différents acteurs, les outillages à déployer… tous ces éléments sont à réinventer lorsque l’on déploie de nouvelles technologies telles que la containerisation dans une approche de Cloud hybride.
Les DSI sont généralement confrontées à des modèles d’infogérance qui ne sont pas ou peu adaptés à ces nouvelles plateformes et nouveaux modes de fonctionnement hybrides. Les infogérants eux-mêmes sont en train de repenser leurs modèles, et rien n’est aujourd’hui vraiment finalisé dans ce domaine.
Ne pas juste rechercher de nouvelles fonctionnalités, mais être en mesure d’en assurer la production et les opérations au quotidien de manière fiable : voilà qui doit servir de fil conducteur dans ces choix stratégiques. Sans oublier la montée en compétences des équipes, impérative pour pouvoir exploiter au mieux ces solutions.
C’est en pesant l’ensemble de ces facteurs que l’on pourra trouver la meilleure approche, et cela n’est évidemment pas vrai que pour la containerisation.
Après avoir commencé sa carrière dans le service en ingénierie informatique puis dans une première expérience de conseil en infrastructures, François Juillot a exercé pendant près de 10 ans les responsabilités de Directeur Infrastructures & Production au sein d’une grande PME. C’est armé de cette double compétence, capacité à délivrer des prestations de conseil au bon niveau et connaissance des problématiques concrètes des DSI, que François rejoint Devoteam Management Consulting. Depuis, il s’appuie sur son expertise en transformation d’infrastructures pour accompagner ses clients (Safran, Lafarge, Air Liquide, ENGIE…) sur des sujets de Stratégie IT et Datacenter, de migration vers des modèles Cloud.