Kubernetes : Canonical ou le défi de rester original
Lors du dernier événement KubeCON 2023, l’éditeur d’Ubuntu a mis en valeur les possibilités de Kubernetes pour le Edge et l’intelligence artificielle. Une manière d’exister face à Red Hat.
Être original pour exister sur le marché des distributions Kubernetes en marge du rouleau compresseur Red Hat. Telle est la stratégie que Canonical, l’éditeur du Linux Ubuntu, semblait avoir adoptée depuis le stand central qu’il occupait lors de l’événement KubeCON 2023. Alors que la plupart des exposants faisaient la démonstration de solutions pour remplacer à moindre coût les technologies actuelles des datacenters, Canonical était venu montrer des solutions qui fonctionnent soit loin des centres informatiques, soit, à l’inverse, qui motorisent les supercalculateurs.
Organisé courant avril à Amsterdam, KubeCON est la grand-messe annuelle de l’écosystème Kubernetes. De plus en plus populaire – cette édition a réuni plus de 10 000 visiteurs –, l’événement fait figure de vitrine pour les technologies de pointe qui doivent animer les prochains projets de transformation digitale. Parmi eux, il y a la mise en cloud des applications traditionnelles. Et il y a les projets liés au Edge et à l’intelligence artificielle ; ceux que vise Canonical.
« Pour l’intelligence artificielle, voici une baie Dell bardée de neuf GPUs Nvidia qui, grâce à notre système Kubernetes, permet aux entreprises d’avoir un véritable ChatGPT personnel dans leur datacenter », lance Bartek Poniecki-Klotz (en photo), ingénieur logiciel de Canonical.
« Et pour le Edge, vous trouverez sur notre stand le plus grand nombre de mini-machines, microserveurs et autres mini-clusters validés pour fonctionner sous Kubernetes. Quel que soit votre projet, vous pouvez être sûr que la solution matérielle existe, dès lors que vous la faites fonctionner avec notre système », ajoute Maciej Mazur, son collègue ingénieur spécialisé dans les solutions télécoms.
Exister face à Red Hat
Parce qu’il exécute les applications au format container, bien plus modulaire que l’ancien format des machines virtuelles, le système d’orchestration Kubernetes soulage les entreprises de la contrainte de configurer des matériels. Dès lors, il devient facile d’installer une reconnaissance d’image sur un Raspberry Pi au pied d’une caméra de vidéosurveillance, ou de partager des GPUs entre des laboratoires de recherche où personne n’est informaticien.
Dans ce contexte, Red Hat, déjà concurrent de Canonical à l’époque des systèmes Linux pour serveurs, cherche à imposer son implémentation de Kubernetes, OpenShift, dans les datacenters. En remplacement de vSphere de VMware. Canonical préfère miser sur les cas d’usage : à raison, puisque son Linux Ubuntu jouit d’une forte notoriété sur les stations des utilisateurs.
« Notre implémentation de Kubernetes, MicroK8, s’administre avec exactement les mêmes outils que ceux connus des utilisateurs sous Ubuntu. C’est son premier avantage par rapport à notre concurrent », argumente Maciej Mazur.
« Le second avantage est que MicroK8 a été conçu dès le départ pour les petites configurations. C’est pourquoi il a déjà été validé sur un très grand nombre de configurations du marché. » Maciej Mazur estime que proposer une solution pour le Edge n’était au départ qu’une originalité, mais que cette originalité s’est avérée payante, puisque l’informatique en Edge serait aujourd’hui au premier plan des projets de transformation digitale.
Par informatique en Edge, on entend ces petits ordinateurs autonomes capables d’effectuer des traitements depuis un pylône (applications télécoms), le mur d’une boutique (caméras et bornes intelligentes), le plafond d’une usine (automatisation des chaînes de montage) ou encore l’étagère d’une succursale (services de données résilients malgré une coupure réseau).
« Et le troisième avantage est que nos solutions sont purement Open source. Lorsque British Telecom nous demande un développement spécifique, nous le publions sur les dépôts publics et, de là, BT peut l’intégrer à ses projets », dit-il enfin, en suggérant que Red Hat produit plutôt des implémentations qui tranchent avec les versions courantes des logiciels.
En l’occurrence, Red Hat revendique proposer des solutions éprouvées, c’est-à-dire anciennes, mais spécialement sécurisées pour ses clients. Tandis que Canonical propose au contraire de bénéficier systématiquement des toutes dernières mises à jour. Cette différence persiste à l’heure où Red Hat, à l’occasion du même événement KubeCON, a présenté lui aussi un Kubernetes optimisé pour le Edge : MicroShift. Typiquement, MicroShift ne fonctionne pas sur Raspberry Pi, un parti pris que revendique Red Hat.
Aller au-delà de Kubernetes
Bartek Poniecki-KlotzIngénieur logiciel, Canonical
Si Canonical bénéficie d’une longueur d’avance sur la fourniture d’un Kubernetes pour la baie de supercalcul signée Dell et Nvidia qu’il présente sur son stand, c’est surtout parce que ce genre de configuration ne s’utilise habituellement pas avec des applications au format container.
« Et pourtant ! », rétorque Bartek Poniecki-Klotz. « De nos jours, en data science, en recherche, vous ne faites plus rien sans Kubernetes. En tant que chercheur, vous n’avez pas le temps de configurer une machine. Ce n’est pas votre métier. Vous voulez juste déposer votre algorithme. C’est la beauté de Kubernetes. Tout le travail est distribué automatiquement à l’endroit nécessaire. Lorsque vous utilisez cette baie avec MicroK8, la puissance est dynamiquement partagée entre toutes vos équipes, vous n’avez pour ainsi dire rien à configurer. »
L’ingénieur indique que la machine coûte entre 200 et 300 000 dollars. En une année, ce serait moins cher que louer autant de puissance de calcul en cloud. D’autant que, grâce à MicroK8, la machine serait aussi simple à utiliser que le cloud. C’est-à-dire qu’elle n’impliquerait pas de frais d’administration supplémentaires, au contraire des habituelles machines virtuelles.
Mais l’offre de Canonical va ici au-delà de MicroK8. « L’intérêt d’utiliser cette baie avec notre système est que vous bénéficiez aussi de Charmed Kubeflow, une pile MLOps que nous avons spécialement développée pour automatiser les tâches de gestion des data scientists », dit Bartek Poniecki-Klotz.
À l’instar des pratiques dites DevOps, qui regroupent les tâches informatiques que doivent faire les développeurs, les pratiques MLOps (pour Machine Learning Operation) concernent les tours de vis qu’il faut donner à chaque étape d’un projet de Machine learning.
« Dans un projet de Machine Learning, il faut récupérer des données, les formater d’une certaine façon, développer le modèle d’entraînement et de test, stocker l’ensemble, puis enfin déployer l’ensemble. À chaque étape, il y a besoin d’automatisation : des vérifications, de l’uniformisation, de l’étiquetage, du versioning, du monitoring, etc. C’est ce que permet de faire Charmed Kubeflow », conclut-il.