Mark Shuttleworth: « Le prochain progrès du datacenter sera le réseau »
Le patron de Canonical, éditeur d’Ubuntu Linux, explique que sa croisade pour faciliter l’accès aux innovations de l’Open source vaut mieux que celle de Red Hat, qu’elle n’a que faire de VMware et qu’elle concrétisera l’IA dans les datacenters comme en Edge.
Le système Ubuntu Linux a vingt ans. À cette occasion, Canonical, son éditeur, a organisé le dernier week-end d’octobre à La Haye, en Hollande, un événement dédié aux innovations de sa communauté. Celles-ci étaient nombreuses à faire la part belle au poste client, segment historique d’Ubuntu. Mais le fondateur Mark Shuttleworth (en photo) n’a pas manqué de rappeler sur scène que l’objectif de son entreprise était surtout de simplifier radicalement le déploiement des technologies Open source innovantes à tous les échelons de l’entreprise. Des équipements IoT jusqu’aux datacenters géants des hyperscalers.
À ce titre, l’une des nouvelles particularités d’Ubuntu est que sa version LTS – celle maintenue pendant cinq ans, contre neuf mois pour les versions qui paraissent tous les six mois – disposera bientôt de deux noyaux. Celui d’origine, excessivement stable, ainsi que sa toute dernière incarnation, à chaque fois que la communauté Linux en propose une.
En bonne intelligence avec les fabricants de semiconducteurs, cette approche doit permettre à une entreprise d’utiliser au plus tôt les toutes dernières accélérations fournies par les puces Intel, Qualcomm, Nvidia et consorts, tout en conservant la même fiabilité opérationnelle qu’auparavant. En clair, il s’agira de pouvoir bénéficier à un instant T d’une l’IA plus efficace que sur n’importe quel autre système, sans pour autant redouter de perdre en stabilité.
On ne saura jamais combien rapportent précisément les 5% de copies d’Ubuntu Linux qui s’accompagnent d’un support Ubuntu Pro payant. Mais l’on peut parier qu’une grande partie des 280 millions de dollars du prochain chiffre d’affaires annuel de Canonical provient de ce que les hyperscalers reversent à l’éditeur pour chacune des VMs Ubuntu qu’ils commercialisent.
Sur un secteur en pleine transformation, à cause de la déferlante de l’IA, mais aussi des remous provoqués par l’explosion tarifaire de VMware, jusqu’ici plateforme leader en datacenters, comment se positionne Ubuntu Linux ? Pour la savoir, LeMagIT est parti interroger Mark Shuttleworth.
Qui sont aujourd’hui les clients d’Ubuntu Linux ?
Mark Shuttleworth : Nos clients sont principalement de grandes entreprises qui se concentrent sur l'innovation technique. Ce sont des hyperviseurs, des administrations, des banques ou même des institutions de santé qui voient dans l’utilisation de produits Open source un avantage concurrentiel pour construire des solutions multifonctions.
Et quand je parle de multifonction, notre spectre fonctionnel va au-delà d’un système d’exploitation pour exécuter des applications. Nous avons tendance à penser notre OS pour qu’il adresse une problématique dans son ensemble : travailler en cloud public, travailler en cloud privé, travailler sur le bureau, ou encore travailler avec des objets connectés. Et nous essayons de réfléchir à la manière de rendre possibles la progression et la gestion des technologies Open source dans tout ce spectre.
C’est important, car, à l’intérieur d’un datacenter, par exemple, au-delà des serveurs, vous avez des switches et des routeurs qui, en définitive, ressemblent aux objets connectés que vous retrouvez à l’autre bout du spectre.
Pourquoi ces entreprises choisissent-elles votre Linux plutôt que celui de Red Hat ou d’un autre ?
Mark Shuttleworth : J'ai beaucoup de respect pour les autres entreprises de la communauté open source, vraiment. En même temps, je pense qu’il est très clair qu'Ubuntu a été la principale plateforme d'innovation au cours des 10 dernières années. Si vous regardez la montée en puissance du cloud public, Ubuntu est la plateforme numéro un. Si vous regardez le succès des containers, Ubuntu est la plateforme numéro un. Si vous regardez la déferlante de l'IA, Ubuntu est la plateforme numéro un.
Je pense que nous grandissons plus vite que Red Hat. Mais ce n’est pas ce que nous visons. Notre ambition est de rendre les solutions Open source plus faciles, plus sécurisées, plus fiables, que ce soit pour le cloud public comme pour l’individu. Et je pense que la manière dont nous livrons les produits open source accélère plus l'innovation. Notre Linux est plus ouvert, il permet aux gens de travailler plus facilement.
Vous vous dites numéro 1 parce qu’Ubuntu est le système par défaut des VM Linux chez les hyperscalers. Mais en entreprise ? Sur les containers, par exemple, on entend plus souvent parler de Red Hat OpenShift que de vous.
Mark Shuttleworth : OpenShift est clairement une marque dont les entreprises entendent beaucoup parler. Mais je prédis que les entreprises lutteront pour parvenir à déplacer plus de 10% de leurs applications vers une plateforme comme OpenShift. Parce que c’est un Kubernetes très encombrant. Or, dans un contexte où les utilisateurs cherchent simplement un Kubertenes, OpenShift est extrêmement cher, extrêmement bardé d’options, extrêmement personnalisé.
Proposer une alternative plus légère, plus propre, plus simple à gérer est préférable pour les entreprises et un bien meilleur choix pour les développeurs.
Avez-vous prévu quelque chose de spécial pour récupérer les clients déçus des nouveaux tarifs de VMware ?
Mark Shuttleworth : Non. Je pense que les gens habitués à VMware n'accepteront probablement pas d’alternative. Même si les conditions commerciales changent, la clientèle VMware est susceptible de rester fidèle à VMware.
En revanche, nous avons de l’ambition sur le segment du cloud privé. Et VMware n’est vraiment pas une plateforme de cloud privé. C’est une plateforme de virtualisation. Nous, nous voulons parler avec les entreprises qui souhaitent simplifier la construction d’un environnement cloud. Nous leur proposons MicroCloud, qui a une approche très simple, très propre pour transformer un petit cluster de 3 serveurs, 5 serveurs, 15 serveurs en un cloud très robuste.
Nous avons des clients qui ont souscrit à un support Ubuntu Pro pour MicroCloud, mais ils ne représentent qu’une fraction des utilisateurs, puisque MicroCloud est un produit Open source. Nous ne pouvons donc pas tous les comptabiliser, mais nous avons des indices qui nous laissent supposer qu’ils sont très, très nombreux.
MicroCloud est très facile à utiliser. Donc, si vous ne pensez pas avoir besoin de support, vous n'en prenez pas et c'est très bien ainsi. Je pense que c'est la nature même des solutions Open source de pouvoir être utilisées sans support payant.
Et ensuite ? Quelle sera votre prochaine offre dans le datacenter ?
Notre R&D se focalise véritablement sur le fait de pouvoir implémenter facilement dans l’entreprise toutes les options offertes par l’écosystème Open source – je veux que nos clients aient le choix le plus marge possible - et notamment les options les plus innovantes. Notre différence avec les autres fournisseurs de Linux est que nous n’allons jamais chercher à développer nos propres applications pour les imposer ensuite.
Mais pour parler plus précisément du datacenter, je pense que les plus gros enjeux vont se focaliser sur le réseau. Il y a une approche du réseau très intéressante chez les hyperscalers, qui peut être très profitable aux datacenters des entreprises. Nous allons travailler à implémenter cette approche pour les entreprises, afin qu’elles puissent construire des réseaux décentralisés, bien plus performants et sécurisés que leurs réseaux actuels.
Pour y parvenir, il y a un défi d’orchestration énorme. Pour le résoudre, nous avons commencé à travailler avec la communauté SONiC. Notre idée est de développer un firmware Ubuntu basé sur Ubuntu Core pour les cartes réseau SmartNIC [qui embarquent des puces de traitement des paquets, NDR] et pour les switches top-of-the-rack [qui interconnectent les étagères rack de serveurs entre elles, NDR]. Nous développons ce firmware avec l’aide des équipementiers réseau.
L’IA pousse notamment ce nouveau type d’architectures réseau dans les datacenters des entreprises. Car avec des applications traditionnelles, vos serveurs calculent dans leur coin puis déchargent à la fin une grande quantité de données vers le stockage. Avec l’IA, il faut transporter en permanence de très importantes quantités de données.
Je ne dis pas qu’il y a plus d’opportunités commerciales dans le réseau que dans le stockage. Je dis simplement que le réseau est à présent plus compliqué à implémenter que le stockage est que c’est donc dans ce domaine que nous pouvons le mieux mettre en avant nos efforts de simplification. Notre objectif étant, bien entendu, de rendre le réseau entièrement Open source, comme cela peut déjà être le cas avec le stockage.
Où en sont vos efforts concernant l’informatique en Edge ?
De nombreuses entreprises de semi-conducteurs nous disent qu’Ubuntu est de loin le système le plus largement utilisé pour les PC industriels. Si vous pensez aux appareils IA connectés, Ubuntu y est très, très largement utilisé, que ce soit dans la version serveur, comme dans la version immuable Ubuntu Core pour l’IoT.
Vous avez certainement dû voir notre boîte orange. C’est un modèle réduit de cluster qui nous permet d’aller chez un client et lui montrer qu’il est possible de déployer en 10 minutes un contrôleur IoT composé de dix machines interconnectées sous Microcloud, avec Kubernetes pour exécuter des microservices et KubeFlow pour faire du Machine learning.
En fait, je pense qu’une grande partie des travaux d’inférence auront lieu en Edge, c’est-à-dire sur un lieu de production, plutôt que dans un datacenter centralisé, pour de simples questions de rapidité, de réactivité.
Notre rôle en tant que plateforme consiste à être un pont entre les différents acteurs de l’IA, ceux des puces (Nvidia, Qualcomm, Intel Mediatek...) pour lesquels nous avons des pilotes, comme ceux des LLM (Mistral Anthropic, Google Gemini, ChatGPT d’OpenAI...) que nous pouvons exécuter sur notre système. Par exemple, si vous avez un équipement industriel ou robotique basé sur une électronique Qualcomm et que vous souhaitez qu’il utilise localement le LLM de Mistral, nous vous fournirons la pile logicielle exacte qui vous permettra d’obtenir les meilleures performances. C’est tout l’enjeu de Canonical : rendre possible la fourniture de la solution la plus efficace pour votre besoin très spécifique.
Je précise qu’à ce stade nous travaillons avec tout le monde dans les directions qui sont les leurs. Nous travaillons avec Nvidia pour que sa plateforme logicielle soit intégralement intégrée à la nôtre. Et nous travaillons en même temps avec le consortium OPEA d’Intel qui propose une plateforme concurrente. Nous ne voulons pas choisir par avance qui sera le plus pérenne. Et je pense que, à terme, toutes ces plateformes se rejoindront sous une forme Open source.