Cet article fait partie de notre guide: Le guide 2023 de l’infrastructure en cloud hybride

Dell World 2023 : Apex concrétise enfin le multicloud

Jusque-là simple programme de vente des équipements Dell par souscription mensuelle, Apex permet enfin d’acheter des VMs et du stockage en cloud et – surtout – de piloter leur intégration avec le datacenter.

Le constructeur Dell ajoute à sa marque Apex un catalogue de services de stockage en mode bloc, fichiers et persistant pour Kubernetes, mais aussi des PC virtuels, des clusters préconfigurés pour Databricks, Red Hat OpenShift, Azure Stack et, bientôt, pour le calcul haute performance avec des GPUs Nvidia. L’ensemble est déployable par souscription mensuelle sur site ou dans le cloud IaaS d’AWS et – c’est nouveau – dans celui d’Azure. Surtout, Apex prend une dimension opérationnelle, avec une console qui gagne en fonctionnalités pour déplacer, répliquer, monitorer les applications et les données entre le datacenter et le cloud.

Pour Caitlin Gordon, directrice des produits multicloud chez Dell Technologies, il s’agit de proposer l’interface d’accès globale entre datacenters et cloud que les entreprises attendaient pour déployer – sans aucune contrainte technique – des applications sur l’infrastructure qui correspond le mieux à leur usage : « L’idée est d’avoir de l’élasticité sur tous les types d’infrastructures entre le datacenter et les clouds publics sans avoir à se lancer dans des réarchitectures. Vous avez désormais l’agilité nécessaire pour tester une application sur des infrastructures cloud peu chères, de la réintégrer dans vos murs pour la faire travailler sur des données critiques et d’exposer à nouveau en cloud sa partie non critique. », dit-elle.

« L’idée est d’avoir de l’élasticité sur tous les types d’infrastructures entre le datacenter et les clouds publics sans avoir à se lancer dans des réarchitectures. »
Caitlin GordonDirectrice produits multicloud, Dell Technologies

Principale annonce de l’événement Dell Technologies World 2023 qui se tient cette semaine à Las Vegas, l’arrivée de fonctions opérationnelles dans la console Apex fait faire un pas de géant à la stratégie multicloud du constructeur. Ce genre de stratégie est censé permettre aux fournisseurs historiques d’équipements pour datacenters de faire croître leur activité, dans un contexte où les entreprises délaissent l’achat de serveurs et de baies de stockage physiques au profit de leurs équivalents virtuels qu’elles louent en cloud.

En lançant la marque Apex en 2021, Dell devait revendre des services cloud proposés par les hyperscalers et justifier cette revente par des efforts d’intégration du cloud au datacenter. Pour autant, la console SaaS Apex ne servait guère plus jusque-là que de catalogue en ligne pour se faire livrer sur site des équipements Dell facturés par souscription mensuelle (comme les solutions en cloud). Au mieux, il était possible de déployer chez AWS des clusters VMware avec les licences déjà achetées.

Passer simplement d’instances performantes sur site à des instances peu chères en cloud

Luc Dehaene, directeur des ventes chez l’ESN belge Proximus ICT, applaudit l’évolution fonctionnelle d’Apex, même s’il évacue l’argument de simplification technique du constructeur : « Les entreprises n’ont pas réellement de difficultés techniques à migrer des serveurs et des données en cloud. En revanche, il faut les convaincre de le faire, car elles manquent cruellement de visibilité sur la sécurité de leurs données quand elles sont en cloud public. Dans ce contexte, avoir une console commune pour les ressources sur site comme en cloud, avec les mêmes fonctions de part et d’autre, fait tomber cette appréhension. Vous monitorez votre stockage en ligne, comme vous le faites pour votre stockage sur site. »

Il résume ce qu’Apex va désormais changer pour les intégrateurs : « nous allons finalement vendre la même chose sous deux déclinaisons : des infrastructures en cloud privé, hébergées chez nous, plus performantes, ou, en cloud public, moins chères. Le point important dans les discussions est à présent que les ressources en cloud public vont nécessiter l’utilisation de lignes SD-WAN pour communiquer avec celles sur site. »

Reste à savoir si les entreprises qui fonctionnent encore aujourd’hui uniquement en datacenter – donc qui achètent une bonne fois pour toutes leurs équipements et les rentabilisent aussi longtemps qu’elles le peuvent – vont accepter de passer au modèle commercial des souscriptions mensuelles. Luc Dehaene estime qu’elles auraient tort d’hésiter :

« Aujourd’hui, nous allons beaucoup plus loin dans les usages, car les solutions savent capter beaucoup plus de données du terrain. Donc, on consomme beaucoup plus de communications. Donc, il devient pertinent de payer un prix par mois, ne serait-ce que parce que le trafic de ces communications fluctue d’un mois sur l’autre. »

« L’autre intérêt du modèle par souscription est que le projet d’une entreprise peut grandir du jour au lendemain : il suffit de payer un peu plus par mois pour avoir plus de capacité, plus d’utilisateurs, alors que dans le modèle historique il faut investir dans une solution plus capacitive. À l’inverse, les entreprises peuvent réduire leurs dépenses les mois où leur activité baisse », ajoute-t-il.

Une console Apex appelée à beaucoup évoluer

En pratique, la console Apex n’est pas un passage obligé pour acheter des ressources en cloud. « Les entreprises possèdent éventuellement des crédits chez AWS ou Azure qui leur permettent d’y acheter des ressources moins chères. Elles peuvent ainsi continuer d’utiliser le portail de leur hyperscaler pour faire leurs emplettes et référencer ensuite ces ressources dans la console Apex pour bénéficier d’une gestion de flotte globale », précise Sam Grocott, le directeur produits « business » pour ISG, la division data center de Dell Technologies

Selon les présentations auxquelles LeMagIT a pu assister, les deux approches sont différentes. En passant par le portail d’un fournisseur de cloud, l’entreprise doit choisir ses modèles de machine virtuelle ou de stockage. En passant par Apex, la console choisit toute seule les modèles les plus appropriés selon les caractéristiques que l’administrateur définit, en termes de cœurs, de RAM, de stockage.

On note néanmoins que la console Apex est appelée à connaître de profondes évolutions. Par exemple, il n’est pas encore possible de lui laisser cloner automatiquement des serveurs ou des baies de stockage physiques en cloud. L’administrateur doit encore entrer à la main leurs caractéristiques.

« Au stade où nous en sommes, nous n’avons pas franchi la frontière de faire d’Apex une console d’administration globale. Si vous voulez attacher un stockage à des machines virtuelles, des droits d’accès utilisateurs à un cluster, etc. vous passez encore par les consoles d’administration de VMware, Windows ou Red Hat » justifie Sam Grocot.

De manière encore plus saillante, il y a (pour le moment) non pas une, mais plusieurs consoles Apex. Les fonctions qui permettent de gérer des machines virtuelles (Apex Compute), le stockage en bloc, en fichier et des sauvegardes (Navigator for Multicloud Storage) et le stockage Kubernetes (Navigator for Kubernetes) sont bien réunies. Mais la gestion d’une flotte de PC virtuels passe par une console dédiée, Apex PCaaS (PC-as-a-Service). Il en sera de même pour les clusters DataBricks ou Nvidia et dans un autre domaine, pour les solutions Edge que Dell technologies annonce par ailleurs.

« Toutes ces offres ne seront pas intégrées ensemble au moment de leur mise sur le marché, en tout cas », bondit Sam Grocott. « Mais il y a bien la volonté à terme de tout unifier dans la même interface. Nous avançons juste pas à pas, avec pour l’heure des consoles dédiées. Le fait est que toutes ces différentes gestions de flotte ont vocation à être pilotables par des outils d’automatisation depuis des APIs. Mais nous n’avons pas encore d’API globale. »

Toujours au chapitre des choses qui manquent, on notera bien évidemment l’absence d’autres clouds publics. Seule la sauvegarde est pour l’heure réalisable sur GCP. « Nous avons des intégrations techniques à réaliser en amont et cela prend beaucoup de temps. Mais notre but est bien d’ajouter au fil du temps d’autres fournisseurs de cloud », ajoute le directeur des produits business. Il promet que des partenariats avec des acteurs locaux, notamment OVHcloud en France, sont bien en cours de négociation.

Des intégrations techniques pour optimiser les instances en cloud

Pour comprendre à quoi ces intégrations techniques correspondent, il suffit de regarder le détail de ce qui fonctionne déjà. Le stockage en mode fichiers déployé en cloud depuis la console Apex serait quatre fois plus performant que les services NAS d’AWS ou d’Azure. Le stockage en mode bloc serait, lui, trois fois plus rapide.

« Oui, ce sont bien les services natifs des hyperscalers qu’Apex déploie. S’ils sont plus rapides que d’ordinaire, c’est parce que nous leur ajoutons notre couche technique, en l’occurrence PowerFlex, le SDS qui reprend toutes les fonctions logicielles de nos baies de stockage », dit Drew Schulke, qui dirige les produits de stockage.

« Quand vous passez par la console Apex, nous vous présentons un service de stockage aggloméré à partir de plusieurs machines virtuelles, donc avec des accès parallèles qui démultiplient la bande passante. »
Drew SchulkeDirecteur produits stockage, Dell Technologies

Et d’expliquer comment ça marche : « quand vous souscrivez à un service de stockage bloc ou fichier chez un hyperscaler, il est géré par une machine virtuelle, qui n’a que sa bande passante. Quand vous passez par la console Apex, nous vous présentons un service de stockage aggloméré à partir de plusieurs machines virtuelles, donc avec des accès parallèles qui démultiplient la bande passante. »

Un autre point technique est celui du support des clusters Azure Stack de Microsoft et OpenShift de Red Hat. Ce sont des infrastructures hyperconvergées au même titre que l’est la gamme VxRail basée sur VMware et qui existe depuis des années dans le catalogue de Dell Technologies. Pour que ces nouveaux clusters fonctionnent, il faut là aussi adapter un SDS qui fonctionne avec les systèmes de Microsoft et Red Hat d’un côté et avec les services de stockage des hyperscalers de l’autre.

De là à déduire que Dell Technologies proposera bientôt sur site des déclinaisons de VxRail pour Azure Stack (en l’occurrence des serveurs et du stockage Windows automatisables avec les mêmes API qu’Azure) et OpenShift (du Linux et du Kubernetes), il n’y a qu’un pas. Drew Schulke confirme du bout des lèvres qu’il « s’agit d’une direction que Dell étudie. »

Pour sa part, Luc Dehaene veut y croire : « bien entendu, la majorité de nos clients virtualisent encore leurs applications avec VMware. Mais il y a l’idée de passer de la virtualisation à la containerisation. Surtout, nous avons de plus en plus de demandes pour passer de VMware à Red Hat, qui coûte cinq fois moins cher », lance-t-il.

 

Pour approfondir sur Administration et supervision du Cloud