Cloud : plus que jamais, OVHcloud mise sur l’expertise technique
L’hyperscaler français adopte une approche résolument tournée vers les DSI, à qui il promet des services toujours plus riches et toujours plus souverains. Quant à l’IA, il préfère miser sur un routeur de LLM plutôt que se lancer dans la course aux GPU.
Inépuisable. Lors de son événement annuel parisien, l’hyperscaler OVHcloud avait tellement d’annonces à faire – un nouveau DG, quasiment 1 milliard d’euros de CA cette année, deux datacenters en plus (un à Paris, l’autre à Milan), des points de présence en plus, 16 services SaaS en plus, 17 infrastructures privées en plus, 40 services IaaS en plus, du quantique en plus – que sa keynote en mode accéléré a tout de même débordé d’une demi-heure sur le planning.
Il y a trois semaines, son challenger Scaleway avait organisé en grand un événement ai-Pulse son et lumière, à la Station F de sa maison mère Iliad, pour se féliciter sur un écran géant, tout en anglais, des fantastiques projets qu’il avait pour l’IA (nouvelle commande de GPU, déploiement de processeurs Ampere). OVHcloud a pris le parti de fêter ses 25 ans à la Maison de la Mutualité sur une scène plus intime à peine éclairée, avec un vrai bout de datacenter fait maison en guise d’accessoire monté sur roulettes et des listings entiers de nouveaux produits techniques pour tout décor. Deux ambiances.
Et l’approche technico-technique d’OVHcloud fait manifestement mouche chez les grands comptes lessivés par des années de promesses business rarement tenues à propos de la transformation digitale, du Big Data et maintenant de l’IA. France Travail, l’ex-Pôle Emploi, témoigne d’avoir trouvé chez OVHcloud plus que partout ailleurs des solutions qui ont le mérite de fonctionner.
« Nous avons voulu répliquer notre datacenter VMware VCF et Tanzu dans une nouvelle région souveraine dédiée à nos développeurs. OVHcloud avait l’offre la plus claire. Nous avons pris celle sur étagère qui était estampillée SecNumCloud. Mais, rapidement, grâce à l’accompagnement d’OVHcloud, nous avons pu évoluer vers une offre configurée sur mesure, exactement adaptée à nos besoins », se félicite Franck Denié, le directeur général du SI chez France Travail.
« À présent, nous souhaitons gagner en observabilité. Encore une fois, les équipes d’OVHcloud travaillent avec nous pour implémenter exactement ce que nous voulons », ajoute-t-il. Un peu comme si, grâce à OVHcloud, les DSI pouvaient reprendre le pouvoir sur l’informatique. Pouvoir que les cabinets de conseil avaient essayé de transférer aux directions métiers, juste parce que leur chéquier était mieux garni.
Miser sur des services de cloud public pour les besoins privés
La nouveauté en matière de souveraineté est que les infrastructures prêtes à l’emploi Bare-Metal Pod que l’hyperscaler dédie à ses clients dépassent à présent le cadre des configurations VMware, Nutanix et SAP.
« Nous voulons aller au-delà du cloud privé consensuel. Désormais, ces infrastructures privées embarquent les services que nous proposons en cloud public, dont les plus de 40 applications SaaS que nous avons nous-mêmes développées. Et ces solutions sont elles aussi en cours de labélisation SecNumCloud », lance Benjamin Revcolevschi, le nouveau Directeur général d’OVHcloud (à gauche, sur la photo en haut de cet article). Il croise les doigts pour obtenir le label en début d’année prochaine.
En attendant, ces versions Bare-Metal Pod embarquant les services que l’on trouve en cloud public sont désormais déclinées en pods OPCP que les entreprises peuvent installer chez elles.
L’enjeu d’OVHcloud est ici de répondre à l’appétit des entreprises pour des services cloud prêts à l’emploi – cluster Kubernetes, collecteurs de données, systèmes de stockage objet, bases de de données analytiques, applications SaaS qui se greffent dessus – tout en les conjuguant avec les impératifs de souveraineté.
Un enjeu qu’ont parfaitement compris les hyperscalers américains. AWS propose de décliner ses services de cloud public sous législation américaine en infrastructures hyperconvergées Outpost installables sur site. Azure revend ses services cloud au français Orange qui les package dans un cloud Bleu qu’il gère lui-même. Mais dans les deux cas, les entreprises françaises pointent qu’il s’agit toujours de services américains qui, en cas de conflit économique, pourraient être gelés par Washington. Ces solutions ne sont d’ailleurs pas labélisées SecNumCloud.
« Nous faisons énormément de R&D dans le domaine de la chimie, avec du supercalcul pour simuler des expériences sensibles. Dans ce contexte, il est impératif que notre production informatique ne dépende pas d’une puissance étrangère. Donc nous déployons nos applications en SecNumCloud. Chez OVHcloud. Et nous attendons d’OVHcloud qu’il nous propose le plus grand choix possible de composants PaaS/SaaS pour nous aider à continuer à innover de manière souveraine », témoigne Yves Caseau, patron du numérique et de l’informatique chez Michelin.
La qualification SecNumCloud est l’une des plus exigeantes au monde, avec plus de 2 000 critères à respecter, dont la protection des services et des infrastructures contre les accès extraterritoriaux. En Europe, OVHcloud s’est aussi fait labéliser C5 en Allemagne et ACN en Italie, soit les certifications de souveraineté locales. Il a aussi obtenu les certifications ISO 27001 et 27701 contre le vol et les pertes de données.
Une approche packagée de l’IA plutôt que la course aux GPU
En termes de composants prêts à l’emploi, OVHcloud agrémente notamment son catalogue de la suite collaborative Zimbra, d’une plateforme Managed WordPress, d’un service KMS de centralisation des clés de chiffrement, d’un service Rancher pour importer et gérer des clusters Kubernetes, ou encore d’une solution analytique Data Platform programmable en Low-code (collecte, traitement, restitution).
Mais c’est surtout dans le domaine de l’IA que l’hyperscaler espère faire la différence avec ses concurrents.
« Nous n’allons pas faire la course aux GPU », lance Octave Klaba, le fondateur d’OVHcloud (à droite, sur la photo en haut de cet article). « Pour faire un POC, c’est 50 millions d’euros et 1 mégawatt de puissance électrique afin d’avoir les 1000 GPU de base. Comptez 500 millions d’euros et 10 mégawatts de puissance pour déployer les 10.000 GPU nécessaires à l’entraînement d’un modèle comme Mistral. Après, X vient de mettre la barre à 5 milliards de dollars pour 100 000 GPU et 100 mégawatts. La prochaine étape, ce sera donc 50 milliards et 1 gigawatt pour un million de GPU. »
« Ça fait beaucoup d’argent pour une activité qui rapportera de l’argent dans dix ans », conclut-il. Et de préciser : « en Europe, construire de pareils datacenters, ce serait possible au Nord-Est. Mais qui a envie d’aller faire tourner son IA à côté de la frontière russe ? »
« Plutôt qu’investir pour que des entreprises puissent entraîner des modèles mieux adaptés à leurs besoins, nous avons pris le parti de développer un routeur intelligent pour les LLM existants. Ce service s’appelle Omisimo et il s’attache à rediriger les prompts des utilisateurs ou les requêtes des développeurs vers l’IA générative la plus adaptée à la demande », annonce Octave Klaba.
Déjà disponible en test derrière un chatbot en ligne crée pour l’occasion par OVHcloud, Omisimo transfère la requête au LLM qui est le plus doué pour faire du RAG, pour traduire, pour générer des images, pour analyser des images, etc. À date, OVHcloud propose plus d’une trentaine de LLM. Mais il promet de faire grossir cette liste au fil du temps.
« Mais notre proposition de valeur ne se limite pas à fournir un copilote. Elle consiste surtout à fournir un ensemble de briques consommables, afin de les intégrer dans des outils existants », ajoute Germain Masse, le directeur Produits IA d’OVHcloud à propos d’un nouveau service AI Endpoints qui permet aux développeurs d’accéder, via une API unique, à l’ensemble des LLM gérés par Omisimo.
Encore en beta – donc gratuit pour l’instant – ce service n’a pas encore de facturation claire. « Nous facturerons vraisemblablement au token. Mais notre idée est d’avoir une base forfaitaire qui mutualise les tarifs des différents LLM afin de proposer un service d’IA avec des prix prédictibles », conclut Germain Masse.