Cinq conseils pour réduire la latence du Cloud hybride
Des changements adéquats en matière d’infrastructure et de conception des workloads permettent aux entreprises de minimiser la latence et de doper les performances du Cloud hybride.
Les Clouds hybrides constituent un moyen répandu d’étendre le datacenter local, offrant ainsi à l’entreprise davantage de flexibilité en termes d’administration et d’équilibrage des charges. Les Clouds hybrides permettent d’éclater les charges ou de les migrer vers le Cloud public lorsque des ressources informatiques supplémentaires sont nécessaires, et lorsqu’il s'agit de se prémunir contre les désastres via des architectures redondantes. Mais interconnecter Clouds privés et publics nécessite un réseau. Et les réseaux affichent immanquablement une latence susceptible d’entraver les performances du Cloud hybride.
Voici cinq conseils pour diminuer la latence d'un Cloud hybride et préserver des performances optimales.
1. Proximité
Plus la distance est longue, plus il faut de temps pour la parcourir ; même à la vitesse de la lumière. Aussi, pour diminuer la latence d’un Cloud hybride, l’entreprise doit se connecter à une installation de Cloud public située à proximité géographique du datacenter de son Cloud privé.
Les fournisseurs de Clouds publics de grande envergure autorisent généralement leurs clients à choisir parmi un panel de sites installés dans différentes régions et différents pays. Remarquons que certaines entreprises optent pour un Cloud public distant pour des motifs liés à la reprise après désastre (DR, Disaster Recovery) ou à la continuité métier (BC, Business Continuity). Il est toutefois important pour l’entreprise de trouver un équilibre entre performances et vulnérabilité des sites.
2. Connexions dédiées
Internet consiste en un seul et même réseau partagé par une myriade d’utilisateurs. Autrement dit, le trafic des connexions Internet publiques peut se trouver embouteillé, entraînant alors goulets d’étranglement et accroissements de latence entre Clouds privé et public. Pour éviter cette situation, l’entreprise peut établir des connexions dédiées – ou spécialisées– entre le Cloud public et le Cloud privé.
Un nombre croissant de fournisseurs de Clouds publics proposent des services de connexion directe ; c’est le cas d’Azure ExpressRoute, d'AWS Direct Connect et de Google Direct Peering. Les clients peuvent choisir la bande passante de connexion la mieux adaptée aux exigences du trafic de leur Cloud.
Toutefois, les connexions directes ne sont pas sans inconvénients. Les entreprises doivent payer la connectivité à un opérateur et s’acquitter parallèlement des coûts facturés par le fournisseur de Clouds.
3. Caches de Cloud
La latence d'un Cloud hybride intervient lors du déplacement de quantités massives de données, notamment d’ensembles Big Data, entre sites privés et publics. Par exemple, une charge de travail redondante peut puiser dans un datastore centralisé installé dans le Cloud privé pour sauvegarder des informations dans le Cloud public.
Pourtant, il n’est plus nécessaire de déplacer des données, ni d’y accéder à distance, dès lors qu’elles sont déjà à disposition en local. La mise en cache contribue à éviter la latence d'un Cloud hybride. Pour ce faire, elle permet à des charges de travail de réutiliser des contenus récemment utilisés.
Guide Essentiel
Par exemple, si une charge de travail d’un Cloud public sollicite un fichier de 10 Mo, le premier déplacement de ce fichier est susceptible d’entraîner une certaine latence. Mais une fois ce fichier déplacé et installé dans le cache du Cloud, ces mêmes données sont à nouveau accessibles depuis le cache ; l’accès n’implique alors plus de les transférer à nouveau depuis le Cloud privé.
AWS ElastiCach constitue un exemple de cache de Cloud. Il peut s’utiliser en complément d’un développement qui exploite l’API AWS. Des appliances de mise en cache intelligente, telles que CacheFlow de Blue Coat, permettent de mettre en cache des données et des contenus Web, notamment de la vidéo.
4. Optimiser le trafic
Malgré la mise en place d’une gestion de cache, certains cas de déplacement de données au sein d’un Cloud hybride peuvent entraîner une hausse du trafic réseau. Si une latence intervient à chaque déplacement d’un paquet sur Internet, les entreprises peuvent néanmoins atténuer la latence cumulée de ces paquets en diminuant leur nombre. Les équipements d’optimisation du trafic ou des réseaux étendus (WAN, Wide Area Network) contribuent à ce résultat.
Selon le type de données, ces équipements font appel à des technologies d’accélération des protocoles, de compression des données et de gestion de la qualité de service. A titre d’exemple, la compression de données intègre davantage de données à chaque paquet, diminuant ainsi le total des paquets nécessaires au déplacement d’un fichier.
Il existe de nombreux équipements d’optimisation du trafic, notamment les applications Riverbed SteelHead et les appliances Mach 5 de Blue Coat par exemple.
5. Optimiser les charges de travail
Les développeurs ne doivent pas négliger l’importance de la conception des charges de travail, ainsi que son influence sur la latence du réseau. Les workloads conçues pour exploiter des jeux de données volumineuses, ou pour gérer des données stratégiques et sensibles peuvent se révéler particulièrement vulnérables en termes de latence réseau.
Refondre la conception ou l’architecture de ces charges en vue de mieux les adapter à des environnements de Cloud hybride permet d’atténuer certains problèmes de latence.
Par exemple, plutôt que de concevoir une charge de travail de sorte qu’elle sollicite un jeu de données volumineuses pour effectuer une opération, mieux vaut qu’elle appelle uniquement un sous-ensemble de ces données pour une tâche spécifique.
Lorsqu’il s'agit d’optimiser une application pour le Cloud hybride, aucune méthode n’est parfaite. En revanche, les développeurs doivent prendre le temps d’évaluer les changements conceptuels susceptibles d’y contribuer.