Les inconvénients d’une infrastructure programmable
Cet article expert décrypte certains inconvénients des très tendances infrastructures programmables: SDN, SDDC, etc…Une petite révolution qu’il convient de nuancer.
Si le datacenter du futur peut nous conduire à une infrastructure programmable, cette technologie reste pour l’heure assez immature, notamment dans le domaine de l’automatisation.
Eric Hanselman, directeur de recherche réseau au 451 Research (Boston), confirme que le datacenter programmable, ou SDDC (Software-Defined Data Center), a pour objet l’amélioration de l’intégration et l’automatisation. Il vise à associer des activités qui impliquent souvent des modifications matérielles et des processus manuels, à d’autres pratiques de datacenter plus automatisées. Son point de départ est la virtualisation.
«Une certaine dose d’abstraction est nécessaire pour gérer les différentes ressources avec une plus grande flexibilité», explique-t-il. «Mais sa principale utilité, c’est de permettre un plus haut degré d’intégration en terme d’administration. Il n’est pas nécessaire que cela soit du Cloud au départ, mais cela en aura au moins l’apparence.»
L’un des principaux objectifs d’un SDDC est de simplifier les changements de serveur, de stockage et, en particulier, de configuration réseau. Comme l’indique Eric Hanselman, les SDDC le permettent en automatisant le partitionnement de toute l’infrastructure du datacenter, et en gérant son amplitude et son évolution, pour ainsi accroître considérablement son rendement. Il est, selon lui, encore un peu tôt pour adopter le modèle SDDC. Pour l’heure, ce sont les entreprises qui développent des datacenters Hyperscale qui ouvrent la voie à ce type d’installations. «Quelques mises en œuvre ont fait beaucoup parler d’elles, en particulier celle de Google», commente Eric Hanselman.
«Google a réalisé des choses intéressantes dans le domaine du basculement dynamique des capacités internes au moyen de ses commutateurs de commande OpenFlow», ajoute-t-il. En complément, il a utilisé un système de planification dynamique qui bascule les capacités lorsque les systèmes effectuent des tâches à plus fort trafic, telle la réplication.
Eric Hanselman estime qu'il existe deux grands acteurs sur le marché de l’infrastructure programmable. Nicera, et sa plate-forme de virtualisation de réseau, ou NVP (Network Virtualization Platform), qui permet la création dynamique d’une infrastructure réseau virtuelle et de services entièrement découplés du matériel réseau. Big Switch Networks propose, quant à lui, une offre d’oSDN (open Software Defined Networking). Selon Eric Hanselman, ces deux opérateurs ambitionnent d’utiliser des connexions virtuelles au travers d’environnements virtualisés, puis d’étendre leur portée via des tunnels donnant alors accès à d’autres environnements virtuels.
D’autres entreprises ont toutefois déjà développé des capacités dans ces domaines, ou sont en passe de le faire. A l’image de Brocade, par exemple.
D’après Eric Hanselman, un SDDC peut doper l’efficacité d’un datacenter. «Avec la virtualisation, nous avons renforcé l’efficacité de chaque serveur. [Les] SDDC se retrouvent dans la même situation de départ avec le datacenter», explique-t-il. «Là où par le passé, il fallait dédier un serveur à une base de données ou à une autre application, on peut désormais répartir les ressources selon les besoins. Nous sommes partis d’une architecture où, à cause du réseau, il fallait mettre en place des POD (centres de données optimisés) ; maintenant [un] SDDC permet le déplacement des tâches.»
En outre, par le passé, du fait des limitations des liaisons Fibre Channel, les datacenters étaient restreints dans leur capacité à déplacer des applications qui nécessitaient des performances élevées. Avec l’infrastructure programmable, le réseau de stockage (SAN) est connecté à un environnement réseau qui peut faire abstraction de la connexion réelle. «Pour que cela fonctionne, particulièrement pour le stockage, on a besoin de performances élevées ; le SDDC tire profit des capacités de mise en réseau logicielles pour […] s’assurer de disposer des performances nécessaires», explique encore Eric Hanselman.
Cette efficacité paraîtra tout particulièrement attractive pour certains, affirme Nick Lippis, éditeur du The Lippis Report, une parution destinée aux décisionnaires IT et réseau, ajoutant que le SDDC a évolué en partie du fait de la pression exercée sur les entreprises de virtualisation pour qu’elles proposent des stacks plus fortement intégrés, et pour que ces piles possèdent des caractéristiques de mise à disposition automatisée des ressources. « Alors que nous disposons d’une informatique distribuée avec automatisation centralisée et administration par une personne unique, nous avons encore des engorgements opérationnels au niveau du réseau. Les utilisateurs finaux ne veulent pas constamment ajouter du personnel à mesure que le réseau croît. »
Jusqu’ici, explique Nick Lippis, l’administration réseau était un oligopole comportant assez peu d’acteurs, et où la simplicité d’administration était une considération secondaire. Et de comparer le SDDC à ce qu’il qualifie de « révolution » du divertissement à domicile : lorsque la télécommande universelle a permis de commander facilement plusieurs appareils avec un seul dispositif, simplifiant à la fois le paramétrage et l’utilisation. « Une fois que tout est connecté et que vous avez centralisé la couche de contrôle, vous pouvez commencer à faire des choses intéressantes pour contrôler le réseau », explique-t-il.
L’idée avec l’infrastructure programmable est de tout connecter une fois pour toutes ; les agents du réseau peuvent ensuite administrer appareils et protocoles. « On peut espérer qu’il arrivera un moment où les applications pourront simplement demander des services au réseau ; mais clairement, nous n’en sommes pas encore là », précise Nick Lippis.
Nick Lippis constate qu’actuellement les choses bougent dans le domaine des SDDC à la Open Networking Foundation, qui développe des normes de réseaux ouverts et de réseaux programmables. Lui-même épaule un groupe d’utilisateurs de réseaux ouverts. « Nous recevons de l’aide de la part de grandes entreprises telles que Fidelity et JPMorgan Chase & Co. Toutes se sont impliquées parce qu’elles ont un même problème : dans l’univers des réseaux informatiques, on compte environ un ingénieur pour 50 routeurs, tandis que sur le marché de la mobilité, dans des entreprises telles que Sprint, un ingénieur suffit à administrer plusieurs milliers de terminaux. Voilà pourquoi ces entreprises investissent autant dans [le] SDDC. »
En outre, explique Nick Lippis, « les principaux acheteurs IT commencent à discuter avec des start-ups ; ils n’ont pas réellement envie de voir les grands fournisseurs de réseau sur ce segment, puisqu’ils estiment que ces derniers n’ont pas intérêt à faire émerger cette technologie. »
Pour Arun Taneja, analyste du Taneja Group, les avantages des SDDC ne relèvent pas que de l’effet de mode. L’automatisation permet de fixer et d’atteindre des objectifs de qualité de service, et de gérer toute l'infrastructure physique en tant que pool, explique-t-il : « Une bonne partie de la structure physique peut encore paraître familière ; mais avec [un] SDDC, on peut faire en sorte que les applications trouvent la connectivité qu’il leur faut, au niveau de performance qu’il leur faut, sans pour autant que des bataillons d’employés administrent le processus. À l’ère du Cloud, il est impossible à un humain de gérer les milliers d’éléments de l’infrastructure. »
Sur un plan plus théorique, ajoute encore Arun Taneja, contrairement aux réseaux traditionnels, pour lesquels l’opérateur choisit les chemins d’accès, le SDN et le SDDC, tout comme Internet, font appel à une approche heuristique pour trouver le chemin d'accès idéal. « Ce que nous avons appris jusqu’à présent sur la virtualisation, c’est que résoudre deux aspects du problème – traitement et stockage – ne fait que déplacer le goulet d’étranglement, qui se retrouve au niveau du réseau », explique-t-il.
Mises en garde et conseil à propos de l’infrastructure à définition logicielle
Selon Jim Damoulakis, directeur technique chez GlassHouse Technologies, une société de conseil située à Southborough dans le Massachusetts, les discussions à propos du SDDC font généralement abstraction de la question des processus métier et de la définition de politiques. « Les percées technologiques sont certes importantes, mais il faut aussi un plan pour les utiliser de manière efficace. Dans le cas contraire, vous aurez beau avoir tout un jeu d’outils à votre disposition, vous ne saurez pas ce que vous êtes en train de bâtir. Le service informatique pèche souvent par des dispositions excessives : on met en oeuvre « au cas où » plutôt que de manière pertinente, en « JIT ».
Comme l’explique Jim Damoulakis, si les SDDC comportent des avantages indéniables, il ne faut pas négliger pour autant les pièges et les complexités que recèle cette technologie, notamment pour le choix du fournisseur : « À cet égard [Les SDDC] s’inscri[ven]t dans la droite ligne du mouvement vers le Cloud privé, mais il faut s’interroger sur la définition de certains composants et, dans certains cas, mieux vaut attendre que les choses soient plus claires et l’orientation mieux définie. »
Un point de départ pour les décisions d’investissement consistera à faire l’inventaire des technologies déjà en place. Une application legacy exécutée sur un modèle de datacenter traditionnel, par exemple, ne fera pas forcément un bon candidat pour un SDDC. En revanche, un SDDC peut clairement répondre au cas d’utilisation des « services standards et à plus fort volume que l’informatique est régulièrement appelée à déployer, explique Jim Damoulakis. Ceux-ci pourraient être mieux gérés, et d’une façon efficace et rapide, avec [un] SDDC. »
À propos de l’auteur :
Alan R. Earls est rédacteur indépendant à Boston, États-Unis. Il est spécialisé dans les domaines du commerce et de la technologie.