VMware Explore 2022 : un raz de marée de nouveaux produits
Sans doute pour montrer que son rachat par Broadcom n’a aucun impact sur ses capacités, VMware annonce à l’occasion de son salon annuel une longue liste de nouveautés, dans toutes ses gammes de produits.
Que les mauvaises langues se taisent. Dans son discours d’ouverture de VMware Explore 2022, la dernière édition d’un événement annuel qui s’appelait auparavant VMworld, le PDG Raghu Raghuram a voulu démontrer que le rachat en cours par Broadcom n’affectait en rien le leadership de VMware dans les logiciels d’infrastructure. Un message très attendu de la part de ses clients qui redoutaient jusque-là une mise à l’arrêt de l’innovation.
« Le rachat ne devrait être effectif qu’à la fin de notre prochain exercice fiscal, le 31 octobre 2023. Nous réfléchissons déjà à la manière de mieux intégrer nos produits à leurs catalogues. Mais, en attendant, nous continuons de fonctionner comme un fournisseur indépendant : nous nous engageons auprès de nos clients et de nos revendeurs sur des roadmaps à long terme et nous dévoilons cette semaine une quantité incroyable de nouveaux produits », a-t-il déclaré.
Cette affirmation a été appuyée par la présence de Hock Tan, le PDG de Broadcom, assis au premier rang d’un public de 6 000 personnes assistant à la keynote.
vSphere et vSAN 8
La liste des nouveaux produits donne en effet l’impression que la R&D de VMware ne chôme pas. En ce qui concerne les solutions historiques du datacenter, vSphere (virtualisation de serveurs) et vSAN (système d’infrastructures hyperconvergées) évoluent de concert en une version 8 plus performante, qui tire parti des DPUs pour le premier et des SSD NVMe pour le second.
Les autres caractéristiques de vSphere 8 sont le support de deux fois plus de GPU par VM et de quatre fois plus d’extensions PCIe. On y trouve aussi une nouvelle console Cloud Consumption Interface Service, pour consommer les ressources du datacenter comme si l’on consommait les ressources d’un cloud public, et un système inédit de mises à jour simultanées sur plusieurs ESXi à la fois.
La plateforme vSAN8 bénéficie d’optimisations qui multiplient ses performances globales par quatre. Il introduit la définition des règles de compression et de chiffrement par VM.
Éliminer toutes les appliances réseau avec Northstar
Le réseau n’est pas en reste avec le projet Northstar, une console SaaS centrale pour définir les règles de routage et de sécurité sur tous les sites ou ressources en cloud d’une entreprise. Cette console va de pair avec l’enrichissement du nombre d’appliances réseau virtuelles.
Tom GillisResponsable division Networking & Advanced Security Business Group, VMware
« Notre idée est d’éliminer toutes les appliances physiques dédiées à une fonction réseau - firewall, IDS/IPS, load balancers, monitoring du trafic, etc. » qui prennent de la place dans votre datacenter et vous imposent chacune leur propre console d’administration et leurs propres règles de sécurité », a expliqué Tom Gillis, responsable de la division Networking & Advanced Security Business Group.
« Normalement, ces appliances virtualisées devraient consommer 15 % de ressources CPU sur vos serveurs. Mais nous évitons cet écueil en proposant des appliances qui déportent leurs calculs sur les puces des nouvelles cartes réseau intelligentes, les SmartNIC. »
Les appliances virtuelles sont regroupées en trois familles de produits, chacune à acheter en option. Les deux premières sont déjà connues. NSX Datacenter & cloud propose des VMs pour le routage (switches, routeurs cœurs de réseau), pour la sécurité (firewall, IDS et IPS) et pour le maillage de services (contrôleur Mesh, plan de données). VMware SASE Platform regroupe les SD-WAN, les firewalls et les services de monitoring pour les succursales.
La troisième famille, baptisée EASE (Elastic App Secure Edge) est inédite. Comme son acronyme ne le signifie pas, elle regroupe toutes les appliances qui assurent l’interconnexion entre les services du côté du cloud. Il s’agit des load balancers applicatifs (WAF), des passerelles et d’une appliance encore en version bêta appelée Project Watch. Dédiée aux applications en containers, Project Watch découvre les APIs qu’elles utilisent, leur signature et leurs comportements, puis s’en sert pour suivre à la trace toutes les communications.
Orchestration multicloud avec Aria
La famille des outils d’administration, précédemment réorientés vers la gestion des ressources en cloud et – surtout – en multicloud, bénéficiera d’un ravalement complet d’ici à la fin de l’année. Exit les outils vRealize, CloudHealth et autres Tanzu Observability. Ils sont tous remplacés par des logiciels baptisés « Aria ». Leur dénominateur commun est de reposer sur un nouveau moteur de cartographie, Aria Graph. Il montre de manière très visuelle les liens applicatifs entre les différents déploiements en cloud, les changements qui surviennent avec une précision à la milliseconde, toutes les APIs, tous les jeux de données, etc.
Là aussi, VMware prétend remplacer une collection entière d’outils ésotériques. « Les entreprises se demandent quelle application déployer sur quel cloud. Si leurs règles d’administration et de sécurité sont correctement appliquées entre les différents clouds. Si elles optimisent réellement leur rapport coût/performance. Le moyen d’avoir une vraie vision globale des coûts, de la sécurité et des performances entre les différentes ressources (plateformes, clouds publics…) », commente Purnima Padmanabhan, directrice de la division Cloud Management.
Purnima PadmanabhanDirectrice de la division Cloud Management, VMware
« En général, la solution est d’utiliser des quantités astronomiques d’outils pour répondre à tous ces besoins. Nous lançons la gamme d’outils unifiés Aria en guise d’alternative. »
Les outils Aria communiquent entre eux via un service Aria hub qui donne l’impression à l’utilisateur qu’il s’agit d’un seul logiciel. Pour autant, chaque fonction est un produit qui s’achète à part.
Aria Cost remplace CloudHealth ; il sert à déterminer la meilleure optimisation des coûts entre plusieurs clouds, à simuler les coûts de migration, à faire l’inventaire des capacités disponibles et à prévoir quand d’autres seront nécessaires.
Aria Automation, anciennement vRealize Automation, est un centre d’opérations qui permet de saisir les règles d’automatisation de plusieurs manières – infrastructure-as-code, CI/CD… Il met en exergue les problématiques de sécurité et de conformité, de sorte que les déploiements automatiques de ressources en cloud se feront selon des exigences de coût, de sécurité et de performances.
Aria Operation, enfin, est le nom de toute une gamme de produits de monitoring :
- Aria Operations (avec un s) remplace vRealize Operations pour les serveurs
- Aria Operations for Networks remplace vRealize Network Insight
- Aria Operations for Logs remplace vRealize Log Insight
- Aria Operations for Secure Cloud remplace CloudHealth Secure State
- Aria Operations for Applications remplace Tanzu Observability
- Aria Migration, Aria Guardrails (gouvernance) et Aria Business Insight sont pour leur part inédits.
Les utilisateurs des anciens produits verront leur licence convertie pour l’outil Aria correspondant. La transformation des anciens produits en produits Aria se déroulera jusqu’au début 2023.
Une plateforme Edge tirée par un kit pour la 4G/5G privée
Idem pour les logiciels d’infrastructure embarqués dans des équipements sur les sites de production, alias « Edge ». Une nouvelle gamme VMware Edge Compute Stack 2.0 voit le jour, notamment avec des systèmes capables d’exécuter des containers et des VM Linux sur des machines à base de processeurs basse consommation ARM et Intel Atom. Mais, surtout, VMware présente officiellement la préversion de Private Mobile Network, une solution tout-en-un pour déployer un réseau privé 4G/5G sur site.
« L’idée est de fournir une solution intégrée pour les prestataires télécoms chargés d’installer un réseau mobile privé. Il y aura une console d’administration en Saas, des couches logicielles déportées sur site pour plus de sécurité, une couche d’analyse du trafic entre tous les appareils connectés et l’ensemble sera facturé comme une souscription », résume Sanjay Uppal, en charge de la division Service Providers & Edge.
Sanjay UppalSVP et DG de l’entité Fournisseur de services et technologies Edge (SEBU), VMware
Pour autant, la solution tout-en-un sera divisée en trois couches fonctionnelles et on ne saurait dire avec précision si elles seront forcément vendues ensemble ou chacune à part.
Pour les prestataires qui fournissent la partie radio de l’installation (licences pour les bandes de fréquences, les antennes et leur RAN), VMware proposera le cœur de réseau mobile fonctionnant depuis un cloud, ses serveurs relais (authentification, routage…) à installer sur site et les services de sécurité.
Pour ceux qui vendent le petit équipement réseau sur site, VMware aura les passerelles SD-WAN qui assurent la connexion sécurisée vers les services en cloud, ainsi que la couche réseau NSX ENI (Edge Network Intelligence).
Enfin, pour les prestataires qui assurent la maintenance du service, VMware fournira les services d’analyse du trafic et la console de monitoring.
Tanzu Application Platform compatible Red Hat OpenShift
Du côté de Tanzu, l’implémentation maison de Kubernetes, on retiendra que la version pour développeurs, le PaaS Tanzu Application Platform (TAP) 1,3, devient compatible avec son concurrent Red Hat Openshift, mais aussi avec la plateforme d’intégration CI/CD Jenkins.
Il s’agit, en clair, de proposer aux développeurs qui travaillent sur des plateformes Open source la panoplie d’outils que VMware a conçus afin de faciliter la mise en production des applications. Si Kubernetes lui-même est plus commode que les machines virtuelles pour déployer des instances applicatives, en s’assurant qu’elles aient toujours les ressources nécessaires, Tanzu simplifie la mise en production des clusters Kubernetes eux-mêmes.
Parmi les outils de Tanzu Application 1.3, on trouve notamment des verrous de sécurité et un catalogue automatique des APIS en production, qui permettent d’activer un cluster Kubernetes sans qu’il souffre des failles habituelles que laissent passer les développeurs. Par exemple, le logiciel communique avec le scanner de vulnérabilités Carbon Black de VMware s’il est présent sur le réseau.
Tanzu pour les Ops
Quant aux versions pour les informaticiens – la gamme Tanzu for Kubernetes Operations – elles se dotent d’une kyrielle d’outils pour déployer des clusters Kubernetes de manière uniforme entre un datacenter et les principaux clouds publics. On notera d’ailleurs qu’OCI, celui d’Oracle, est désormais supporté.
Tanzu for Kubernetes Operations comprend Tanzu Kubernetes Grid (le Kubernetes de VMware pour datacenters), Tanzu Mission Control (la suite qui permet aux hébergeurs de construire des offres de microservices) et, désormais, Aria Operations for Applications.
La nouvelle version 2.0 de Tanzu Kubernetes Grid se met au diapason des APIs d’administration standard dans le monde Open source. Notamment, il n’est plus question de définir des règles d’une certaine manière pour administrer les clusters locaux et d’une autre manière les clusters Kubernetes en cloud public. Tanzu Kubernetes Grid 2.0 sera commercialisé sous deux formes : soit une version autonome, soit une option à ajouter à vSphere 8.
Cette version 2.0 apporte surtout une nouvelle fonction dite Cluster Class qui rend le déploiement des VMs hébergeant des clusters de containers aussi facile que celui des containers eux-mêmes. En une commande, on définit quelles ressources CPU/RAM/réseau doivent toujours avoir les clusters, puis le système se débrouille pour installer leur VM sur les bons serveurs au gré des pics d’activité.
Tanzu Mission Control gagne quant à lui le qualificatif de multicloud. En l’occurrence, sa console gère le déport des containers installé dans un cloud privé vSphere 8 vers EKS, le service Kubernetes d’AWS. On se doute que, dans les prochains mois, il sera aussi compatible Azure, GCP, OCI. Il permet aussi à présent de stocker la configuration des clusters sur un dépôts Git. Via des scripts YAML, il devient ainsi possible de synchroniser en permanence la configuration des clusters avec les mises à jour publiées sur le dépôt.