WavebreakMediaMicro - Fotolia
VDI et mobilité poussent les services d’infrastructure vers leurs limites
Le VDI et la mobilité d’entreprise créent tout un lot de problèmes qu’il revient à l’IT de gérer, dont la gestion de la qualité de l’expérience utilisateur et l’intégration d’outils de supervision.
L’informatique de l’utilisateur final vise à fournir une expérience transparente aux collaborateurs de l’entreprise, quels que soient terminaux et applications sollicités. Mais la mise en œuvre des services d’infrastructures nécessaires à cela est, elle, tout sauf transparente.
Les goulots d’étranglement du VDI, au niveau du réseau et des ressources de stockage, sont bien connus. Les infrastructures convergées et les progrès d’optimisation de la bande passante apportent une réponse à nombre de ces défis. Mais la virtualisation du poste de travail et la gestion des applications ont parallèlement gagnés en complexité.
Dans le même temps, la mobilité pousse les organisations à repenser leurs approches de l’accès réseau, du stockage des données, de la sécurité, etc. Et beaucoup de professionnels de l’informatique ne mesurent pas l’étendue complète de la transformation nécessaires à leurs services d’infrastructure avant le déploiement des technologies d’informatique de l’utilisateur final.
« La plupart des organisations ne savent pas ce dans quoi elles s’engagent jusqu’à ce qu’elles se retrouvent dans la boue jusqu’aux genoux », illustre Bob Egan, Pdg du cabinet d’analystes Sepharim Group.
VDI : le jeu du chat et de la souris
Le coût des baies de stockage disposant des entrées/sorties et des capacités nécessaires pour supporter des postes de travail virtuels a traditionnellement limité l’adoption de la technologie. Et la latence réseau a contribué créer une expérience utilisateur souvent décevante.
Ces problèmes ne sont plus aussi significatifs qu’ils ont pu l’être. La déduplication de données et les baies de stockage tout flash ont apporté des améliorations considérables en termes de coûts et de performances. Du côté des réseaux et de la latence, les protocoles de déport d’affichage et le traitement graphique sur le poste client ont répondu à la plupart des problèmes rencontrés.
Mais la plus importante avancée est à porter au crédit des infrastructures convergées et hyper-convergées. Ces systèmes intègrent les ressources de calcul, de stockage et de réseau nécessaires pour supporter un nombre défini de postes de travail virtuels, simplifiant la mise en œuvre du VDI et sa montée en volume.
« Il suffit d’en acheter autant que nécessaire pour le nombre de ses utilisateurs », résume ainsi Alastair Cooke, consultant et formateur en virtualisation en Nouvelle Zélande.
Mais comme pour un jeu du chat et de la souris, alors que certains problèmes liés aux services d’infrastructure disparaissent, d’autres peuvent apparaître.
Souvent, les organisations négligent le besoin d’accélération graphique matérielle pour supporter leurs applications et postes virtuels, souligne Christian Mohn, architecte solutions sénior chez Proact. Les GPU étaient initialement conçus pour les applications gourmandes en ressources graphiques, mais leur capacité de traitement élevée les ouvre désormais à tous les types d’applications, physiques et virtuelles. « Même Microsoft Office ou le navigateur Web utilise aujourd’hui le GPU », relève-t-il.
Ce recours au GPU limite l’éventail de matériel sur lequel exécuter le VDI, parce que tous les serveurs ne supportent pas forcément des cartes graphiques. Et cela ajoute au coût d’un projet VDI. Les DSI devraient prendre ces éléments en compte dans la planification budgétaire de leurs projets.
En outre, l’administration des applications et des postes virtuels est de plus en plus complexe. La plupart des DSI ayant adopté le VDI utilisent désormais des outils de supervision, de stratification applicative, de gestion des données, de personnalisation de l’environnement utilisateur et autres outils. Travailler avec tant de produits, d’éditeurs souvent différents, peut être tout aussi frustrant qu’il l’était avant de composer avec les questions de stockage et de réseau.
Dans cette perspective, les entreprises devraient éviter d’appréhender le DaaS comme une solution magique : pour Cooke, les capacités avancées d’administration aujourd’hui existantes ne sont pas forcément disponibles en mode service.
Repenser l’accès mobile
La mobilité d’entreprise pose aussi des questions autour des services d’infrastructure IT, quand bien même dans une moindre proportion. Le BYOD pousse de nombreuses organisations à examiner et renforcer la bande passante de leurs réseaux sans fil. Pour Mohn, le Wi-Fi, « qui était un ajout par le passé, est devenu le premier mode d’accès ».
Et la quantité de données que les utilisateurs créent – en particulier en matière de photos et vidéos, qui remplacent ou augmentent les documents écrits – se traduit par le besoin pour de nouvelles stratégies de stockage. Cela ne veut pas forcément dire en acheter plus, mais au moins développer des politiques liées aux types de données à conserver et pour combien de temps, souligne Cooke.
Le principal problème est que les DSI doivent repenser leur approche de gestion des accès aux systèmes de l’entreprise. Les collaborateurs modernes utilisent de multiples types d’appareils exécutant différents systèmes d’exploitation et se connectant via des réseaux filaires, sans fil, et cellulaires. Les modes historiques de gestion des accès sont là dépassés, pour Egan.
Il convient dès lors de définir des politiques d’accès aux applications et aux données en fonction du rôle des utilisateurs, des terminaux, des réseaux, et de l’emplacement géographique, entre autres. Mais Egan interroge : « les systèmes nécessaires à ce type de contrôle sont-ils en place ? »
Il faut compter là avec les systèmes de gestion des identités et des accès (IAM), de gestion de la mobilité d’entreprise (EMM), en plus de technologies conçues pour stocker et sécuriser les données, ainsi que pour détecter et prévenir les intrusions.
Les organisations acquièrent généralement leurs services d’infrastructure IT selon leurs besoins, et pas dans la perspective d’une planification plus large. Dès lors, pour Ira Grossman, directeur technique de MCPc, elles n’appréhendent la situation dans sa globalité que lorsqu’il est trop tard. Ses clients se trouvent alors de plus en plus nombreux à déployer des solutions de gestion d’actifs et de dépenses télécoms pour s’assurer que leurs investissements dans l’informatique de l’utilisateur final portent leurs fruits. Mais « le processus d’allocation du coût par utilisateur est de plus en plus complexe ».