OVHcloud : « Il y a indiscutablement une demande pour du cloud de proximité »
Dans cette interview, Thierry Souche, le directeur technique, détaille comment le No 1 du cloud européen va décliner son offre en edge, notamment pour éviter que les données de l’IA sortent des murs d’une entreprise.
Fin novembre, devant près de 1500 clients et partenaires réunis à l’occasion de son événement annuel, OVHcloud donnait les grandes lignes d’une nouvelle stratégie censée le rendre bien plus attractif qu’AWS, Azure, ou GCP dans le domaine de cloud. Outre une quarantaine de services PaaS, l’hébergeur développait notamment l’idée de démultiplier les implantations de proximité. Dans des datacenters en colocation, en guise de points de présence locaux. Mais aussi en installant ses services dans les datacenters des entreprises. Voire sur des serveurs que les entreprises auraient achetés chez quelqu’un d’autre.
Les autres hyperscalers proposent au mieux d’installer leurs propres infrastructures hyperconvergées chez leurs clients. Et, encore. Dans le but limité de servir de cache local et/ou privé pour des traitements qui ont vocation à s’exécuter ensuite en cloud public.
Dans son plan, OVHcloud évoque les installations sur site comme des régions à part entière, qui pourraient ne jamais s’interconnecter au reste cloud si tel est le désir du client. En poussant la proximité à un tel paroxysme, l’hébergeur français – qui est aujourd’hui à la tête de 38 datacenters en Europe, en Amérique du Nord, en Asie et en Océanie – veut plus que quiconque jouer la carte de la souveraineté. Un argument qui à l’heure actuelle résonne particulièrement aux oreilles des entreprises européennes.
Mais au-delà des points de présence et de la nationalité des hyperscalers, la bataille que se livrent les hébergeurs de cloud se jouera aussi de plus en plus sur la capacité de chacun à exécuter des services d’IA. Or, si OVHcloud annonce mettre en œuvre des fonctions a priori complètes pour élaborer les projets (Ai App Builder, AI EndPoints), il est resté plus discret qu’un Scaleway, par exemple, sur la flotte de GPUs qu’il saura déployer.
Pour y voir un peu plus clair dans cette stratégie de rebond, LeMagIT est parti à la rencontre de Thierry Souche, le directeur technique d’OVHcloud (en photo). Interview.
LeMagIT : Quel est l’intérêt pour une entreprise de consommer des services OVHcloud en dehors des datacenters d’OVHcloud ?
Thierry Souche : Il y aura trois choix – nos datacenters, nos points de présence en colocation et chez nos clients – parce que c’est ce que nous demandent les entreprises. Certaines sont soumises à des contraintes réglementaires qui leur imposent d’héberger leurs traitements entre leurs murs. D’autres, majoritaires, vont vouloir exécuter des traitements au plus près de leur chaîne de production.
Le scénario qui se dessine le plus souvent en ce moment est de faire de l’inférence localement [exécuter des modèles d’IA préentraînés avec des données locales, NDR], pour ne pas avoir à souffrir de latence entre la détection d’un événement et la prise de décision.
Il y a indiscutablement une demande pour des traitements locaux. Mais, du point de vue économique, il n’est pas rentable pour nous de construire des datacenters pour héberger moins de dix racks. Donc, nous nous installerons dans des datacenters qui ne nous appartiennent pas pour déployer, a priori, entre un et trois racks de serveurs.
Puis, si la demande se fait de plus en plus forte à un point de présence donné, nous aurons alors les moyens de passer à l’échelle, c’est-à-dire d’installer autour de cet endroit notre propre datacenter pour héberger nos clients.
LeMagIT : Quelle sera la différence entre l’infrastructure que vous installez dans vos datacenters et celle que vous installerez dans ces points de présence ou chez vos clients ?
Thierry Souche : Ce ne sera pas la même infrastructure. Dans nos datacenters, ce sont des serveurs que nous construisons nous-mêmes, qui sont spécialement dessinés pour nos systèmes de refroidissement. Par exemple, grâce à notre système de refroidissement à eau hors pair, nous sommes capables d’évacuer une enveloppe thermique de 80 kW par rack, quand un datacenter standard équipé en watercooling ne parvient qu’à évacuer 20 kW. Donc, dans les points de présence, nous installerons des serveurs standards.
Et, croyez-moi, c’est plus facile à dire qu’à faire. Toute notre infrastructure a été élaborée, sur le plan matériel, sur le plan logiciel, pour grandir très facilement, pour supporter des charges exponentielles. Le défi que posent les points de présence est d’installer, au contraire, une infrastructure compacte.
Pour résoudre ce défi, nous avons racheté cet été Gridscale, une startup allemande à la pointe des infrastructures hyperconvergées pour le Edge. Un des atouts de leur technologie est qu’elle parvient à configurer en un temps record un environnement de type Cloud public. Nos ingénieurs travaillent ensemble depuis lors pour implémenter d’autres services, notamment la gestion du Bare metal [possibilité d’exécuter une application sur un serveur entier, sans qu’il soit découpé en machines virtuelles, NDR].
Concernant les infrastructures que nous comptons déployer sur site, c’est-à-dire chez nos clients, ce sera encore différent. Car, dans ce cas, l’infrastructure devra être taillée sur mesure pour les besoins du client. Par exemple, cela n’a pas de sens d’installer tous les services d’OVHcloud sur site si vous n’en utilisez qu’une certaine dizaine.
Donc nous élaborerons des configurations au cas par cas. Notre ambition est de valider une configuration type par cas d’usage et, même le cas échéant, de laisser libre notre client de l’acheter lui-même.
LeMagIT : Pouvez-vous préciser ce que sera ce cloud installé chez le client : du cloud public ? Du cloud privé ?
Thierry Souche : les deux seront possibles. Certains utiliseront les ressources dans leur région propre comme ils utiliseraient des ressources OVHcloud ailleurs. D’autres pourront avoir entièrement la main sur l’infrastructure, c’est-à-dire qu’ils seront propriétaires d’un cloud privé qu’ils pourront configurer comme bon leur semble, que ce soit logiciellement grâce à nos outils, comme matériellement, par exemple en rajoutant autant de disques qu’ils le souhaitent.
Dans tous les cas, le modèle sera celui de la facturation à l’usage des services, comme partout ailleurs chez OVHcloud. Mais, dans ce cas précis, avec un engagement supplémentaire, eu égard à l’infrastructure que nous leur aurons fournie.
LeMagIT : Pensez-vous que les entreprises préféreront acquérir le matériel chez vous plutôt que chez leurs fournisseurs habituels ?
Thierry Souche : En l’occurrence, nous travaillons à proposer des équipements complets qui coûteront significativement moins cher que ceux proposés par les fournisseurs habituels d’infrastructures.
LeMagIT : Mais quelle est la logique derrière tout ceci ? Être présent au plus proche de vos clients, où AWS, Azure et GCP sont déjà, pour incarner la partie souveraine d’un cloud hybride ? Ou au contraire, démultiplier vos points de présence pour être aussi grand que vos concurrents ?
Thierry Souche : Nous ne construisons pas notre stratégie selon les points de présence de nos concurrents ! Notre ambition est véritablement de fournir notre cloud partout. Localement pour favoriser le travail avec des partenaires proches des entreprises, qui, eux, se focalisent sur les applicatifs métiers et qui gagneront à s’appuyer sur un réseau OVHcloud mondial.
Parce que les entreprises ont des succursales ailleurs, qui ont pareillement besoin d’un minimum de latence. Mais aussi parce que les entreprises voudront bénéficier d’un cloud public assez grand pour aller y entraîner des modèles d’IA et assez proche pour garder sous la main toutes les étapes d’inférence.
LeMagIT : Il est probable en effet que les entreprises travailleront avec l’hyperscalaire qui possède suffisamment de puissance pour l’IA. Où vous situez-vous dans la course à l’équipement en GPU que se livrent tous les hyperscalers ?
Thierry Souche : Nous refusons de nous avancer à donner des chiffres de flottes de GPU. La vérité est que Nvidia impose à tout le monde un délai de 50 semaines entre le moment où vous lui commandez des GPUs et le moment où il vous les livre. Nous avons été parmi les premiers à comprendre qu’il fallait nous équiper, nous recevrons donc les premières cartes GPU H100 (entraînement) et L40S (inférence) en janvier, puis des cartes L4 en mars.
Le problème est que, dans le délai de livraison, beaucoup de choses évoluent. Par exemple, Nvidia a entretemps annoncé un H200. AMD arrive lui aussi avec des cartes MI300 particulièrement intéressantes.
À mon avis, les effets d’annonces de nos concurrents, sur un énorme investissement de tant de cartes GPU, sont une erreur. Car leur annonce est épatante pendant une semaine. La semaine suivante, ce qu’ils ont commandé paraît déjà obsolète aux yeux des prospects.
Nous préférons avancer étape par étape. N’investir que dans ce que les clients nous commandent fermement, mettre déjà au point la manière dont nous pourrons le mieux rentabiliser ces cartes et rentabiliser celles que nous avons précédemment déployées. Par exemple, nous mettons déjà au point des serveurs qui sauront faire de l’inférence avec des H100 quand elles seront obsolètes sur l’entraînement.
Autre exemple, les entreprises qui se montrent très intéressées par des GPUs pour leurs projets d’IA continueront d’avoir des besoins plus importants dans le VDI. Donc, il est peut-être plus rentable qu’elles aient accès à d’autres modèles de cartes GPU, etc.
Tout le talent est de savoir anticiper le plus justement la demande. C’est surtout sur ce sujet que nous concentrons nos efforts. Plus que sur des chiffres de flottes de GPU.
LeMagIT : Quel est le calendrier du déploiement de vos points de présence ? Et à quelle échelle ?
Thierry Souche : Notre objectif à date est de déployer quinze points de présence avant août 2024, date de clôture de notre année fiscale. Puis cinquante l’année suivante. Puis plusieurs centaines la troisième année. À l’heure où je vous parle, c’est-à-dire moins d’un mois après notre annonce, quatre points de présence sont déjà en cours de construction dans des datacenters en colocation.
Concernant les installations sur site, cela prendra plus de temps. Tout simplement, car nous devons élaborer avec nos clients les configurations qui correspondent à leurs besoins.