olly - Fotolia
La vraie valeur de la virtualisation ? Un calcul d'écolier s’impose
Les fournisseurs de solutions de virtualisation revendiquent des économies sur les dépenses en capital (Capex) et opérationnelles (Opex). Pourtant, une arithmétique scolaire remet en cause ces arguments.
Les responsables IT manquent de compétences de base en économie.
Depuis l'apparition de la virtualisation de serveurs au début des années 2000, j'ai lu des tas de choses sur la manière dont les serveurs virtualisés nous permettraient de faire des économies en matière d'informatique. Au départ, il s'agissait des coûts issus de la consolidation d'un lot de petits serveurs – dont chacun exécutait une seule application – en un nombre plus restreint de serveurs exécutant individuellement un grand nombre d'applications virtualisées.
Nous allions économiser des sommes colossales par la simple diminution des dépenses en logiciels et en matériel. Mais, avec la hausse des frais de licence des hyperviseurs, la nécessité d'ajouter 7 à 16 ports E/S de plus par serveur, d'embarquer des processeurs plus rapides, davantage de cœurs et de mémoire, et d'appliquer une couche de technologie Flash à l’ensemble, les serveurs haut de gamme affichent aujourd'hui un prix tel, que les systèmes mainframe d'IBM semblent bon marché.
Bon, donc, l'arithmétique Capex n'était pas encore tout à fait la panacée. Mais nous pouvions nous appuyer sur les économies réalisées sur les coûts d'administration ; à savoir les économies Opex.
C'est ce qu'on nous expliquait en évoquant la réduction de ce personnel informatique qu'il faudrait fidéliser, nourrir et vêtir pour qu'il nous garantisse un datacenter hautement agile et virtualisé. La virtualisation était censée tout automatiser et tout simplifier, au point que l'administrateur qui en a la charge, à moitié débutant et fort d'une certification VMware à 25 000 dollars, pouvait, à lui seul, faire le travail d'un administrateur des applications, d'un administrateur serveur, d'un administrateur du stockage, d'un administrateur réseau, d'un planificateur de la reprise après désastre, d'un planificateur de la sécurité des données, d'un responsable et archiviste des données, et d'un électricien de base.
Les entreprises pourraient enfin dire adieu à tous ces personnels experts du domaine grassement payés : la virtualisation des serveurs allait aplanir la hiérarchie informatique une bonne fois pour toutes.
Mais il s'est avéré que cette merveilleuse technologie dissimulait quelques formes de complexité, et qu'elle ne facilitait l'administration ni de l'infrastructure, ni des données. En revanche, elle avait bel et bien déplacé les talents issus de certains services informatiques, et remplacé un personnel expérimenté par de simples exécutants issus de formations à la virtualisation, qui pour bon nombre n'avaient aucune idée de ce qu'est l'informatique au-delà des connaissances acquises dans les salles de cours de VMware.
C'est ainsi que le dépannage est devenu inefficace, et que des éléments de mesure, tels que le délai moyen avant réparation, les immobilisations logistiques et administratives, ou encore le taux de réparation à la première intervention, ont affiché des valeurs abyssales. Le tout finissant par produire des montants Opex très peu flatteurs dès lors qu'on s'abaisse à une arithmétique économique simple.
Dans cette histoire, le plus gros gâchis concerne le stockage. D'entrée de jeu, les fournisseurs de solutions de virtualisation ont rejeté l'entière responsabilité des problèmes sur ce stockage. Mais, il se sont bien gardés de dire à leurs clients que, dans un avenir proche, ceux-ci devraient purement et simplement remplacer toute l'infrastructure de stockage existante pour tirer des performances à peine acceptables des charges de travail qu'ils appliquent aux applications virtualisées.
Qu'on l'appelle EVO:RAIL, SAN virtuel ou encore infrastructure hyperconvergente, cette nouvelle nous est parvenue il y a environ un an. Et une simple arithmétique économique nous apprend que, globalement, la chose va coûter une fortune aux entreprises ; à savoir le remplacement des quelque 40 à 60 exaoctets de stockage déployés dans les datacenters du monde entier.
Qui plus est, la majorité des solutions de stockage à définition logicielle – SDS (Software-Defined Software) – et des infrastructures hyperconvergentes des géants de la virtualisation requièrent un minimum de trois nœuds identiques par serveur, ainsi qu'un modèle de serveurs en cluster pour la haute disponibilité. En d'autres termes, le déploiement du stockage s'élève à un minimum de six nœuds (et ça, c'est de l'arithmétique de base : trois nœuds de stockage identiques en soutien à chacun des deux serveurs en cluster ; soit 2 x 3 = 6). Ce qui représente au bas mot, pour une solution SDS, environ 90.000 dollars en licences SDS et matériel par serveur. Tt potentiellement bien plus pour une appliance hyperconvergée préconfigurée.
J'en déduis donc que c'est ce que vous allez devoir financer avec les formidables économies sur les coûts que la virtualisation des serveurs est censée apporter.
Et bien plutôt que d'assister aux formations des fournisseurs de solutions de virtualisation, je pense que nous devrions renvoyer notre personnel IT sur les bancs de l'école pour refaire un peu d'arithmétique scolaire appliquée à l'économie. Ce personnel pourrait même suivre les cours en ligne. A supposer qu'il sache faire fonctionner un PC.