WavebreakMediaMicro - Fotolia
IA : la feuille de route ambitieuse d’OVHcloud
Avoir une pile technologique complète d’ici 18 mois, voilà les ambitions du fournisseur de cloud français en matière d’IA. Si les principaux services sont disponibles ou en cours de déploiement, OVH doit encore s’entourer d’un écosystème et faire des choix en matière d’infrastructure.
Lancé en 2017, OVHcloud poursuit le développement d’AI & Machine Learning, son catalogue de services consacré à l’IA disponible sur son cloud public.
En juin 2020, OVHcloud avait présenté ML Serving. Puis, en avril 2021, le cloudiste lançait AI Training.
ML Serving permet de déployer en production des modèles de machine learning et de deep learning au format TensorFlow, ONNX et PMML. Le service accepte les modèles développés avec les framework scikit-learn, Pandas, Keras, TensorFlow et Pytorch, tout comme il est possible de les exporter depuis HuggingFace et FastAI. OVHcloud propose également des modèles préentraînés.
AI Training est un service pour supporter l’entraînement des modèles écrits avec PyTorch, Tensorflow, MxNet ou encore des notebooks Jupyter depuis des conteneurs Docker sur Kubernetes.
À ces deux offres s’ajoutent AI Notebooks. AI Notebooks, accessible en bêta, n’est autre qu’un service managé de notebooks Jupyter ou VSCode liés à des ressources de CPU ou GPU, comme AI Training. Il sera en disponibilité générale d’ici deux mois d’après la feuille de route publique du fournisseur.
AI Apps, le terreau pour créer un écosystème
En outre, OVHcloud prévoit le lancement d’AI Apps d’ici la fin de l’année. Disponible en version alpha depuis janvier 2022, AI Apps doit permettre de démarrer des modèles et des applications managées via des conteneurs Docker avec un système supportant la haute disponibilité via des déploiements multinœuds. Là encore, OVHCloud entend proposer ces modèles depuis son catalogue.
Le fournisseur compte également réunir des startups et des entreprises susceptibles d’enrichir son catalogue.
« Il faut rendre l’IA exploitable et accessible », lance Alexis Gendronneau, Head of Data Products chez OVHcloud.
Ainsi, le fournisseur de cloud noue des relations particulières avec Gladia, une startup qui propose une plateforme d’inférence de modèles accessible par API. Gladia.io a été fondée et est dirigée par Jean-Louis Quéguiner, ancien directeur technique de la branche Big Data et IA chez OVHcloud. OVH s’est aussi rapproché de Picsell.ai, une startup qui propose une plateforme MLOps consacrée à la vision par ordinateur, et de Lettria, une société éditrice d’une plateforme et d’API pour les développeurs de projets de traitement du langage naturel. D’autres collaborations suivront.
« Nous travaillons assez activement sur la notion d’écosystème. L’idée c’est de permettre à n’importe quelle startup de packager sa solution et de la livrer rapidement sur les infrastructures OVH, sans avoir à se poser des questions existentielles sur la prévision des coûts, pour qu’il n’y ait pas de mauvaise surprise à la fin, même pour les clients », ajoute-t-il.
Concernant la consommation des ressources IT, chaque service dispose de ses métriques, comme le nombre de VCore, de quantité de RAM ou de GPU par cluster ou par instance. Tous les services IA sont facturés à la minute.
OVHcloud défend la transparence de sa facturation. Or comme le précise sa documentation, il faut bien prendre en compte que le coût du stockage n’est pas totalement inclus dans ses services d’IA.
Les modèles sont stockés sur OVHcloud Object Storage. Chaque instance dispose d’un stockage local en sus d’un espace de stockage attaché à Object Storage. Avec AI Training, il faut choisir si les modèles vont être entraînés sur des CPU ou des GPU. Avec AI Apps, le même dilemme s’impose pour l’inférence.
Une pile technologique complète d’ici 18 mois, malgré la « dépendance au hardware »
Cependant, l’offre IA d’OVHcloud doit encore évoluer pour fournir une pile technologie complète. « Dans le domaine de l’IA, je vais prendre le parti de dire qu’une pile technologique doit permettre de construire un modèle, de l’orchestrer, de gérer son cycle de vie avec des pipelines CI/CD et octroyer des briques qui permettent de l’intégrer, c’est-à-dire des API pour l’inférence », résume Alexis Gendronneau.
« Pour la première partie, nous avons AI Training, qu’il faut faire vivre et développer. En ce qui concerne l’orchestration et la gestion du cycle de vie, je ne pense pas qu’on ait le choix : nous devons proposer une solution fonctionnelle d’ici 12 à 18 mois. C’est vraiment réalisable », avance-t-il.
Il reste le passage en production des modèles, lié à l’inférence.
« En matière d’inférence, je pense qu’il sera difficile de fournir des solutions viables dans le temps », prévient le responsable. Ici, OVHcloud serait dépendant des évolutions des équipements.
Aujourd’hui, OVHcloud dispose d’instances munies de GPU. Les GPU en question sont des Nvidia Tesla V100s, une version bodybuildée du V100, dotée de 32 Go HBM2 et d’un refroidissement passif.
À l’avenir, OVHcloud entend adopter les nouvelles architectures conçues par Nvidia. « Nous voulons proposer l’infrastructure matérielle la plus à jour possible. Nous suivons de près les avancées de Nvidia avec ses systèmes A100 et H100 tout en ayant en tête les questions de coûts et d’impacts environnementaux », déclare le responsable.
Les géants du cloud américains offrent la possibilité d’effectuer les tâches d’inférence sur des FPGA ou des ASICS. « C’est une piste que nous explorons également », indique Alexis Gendronneau.
Alexis GendronneauHead of Data Products, OVHcloud
« L’on ne va pas se mentir, aujourd’hui dans l’IA, il y a tout de même une grosse dépendance au hardware. Il y a besoin de faire émerger des standards », affirme-t-il. Et cette question des infrastructures normalisées serait loin d’être résolue. Or OVHcloud ne veut pas décaler sa feuille de route.
« Du fait de l’existence de multiples puces compatibles PCI-E, des initiatives de Nvidia, etc. c’est un marché très complexe. Nous allons devoir prendre parti, mais nous n’allons pas nous enfermer dans une stratégie : nous allons être obligés de diversifier le catalogue », envisage-t-il.
Dès lors, le responsable ne préfère pas s’engager sur un « ETA ferme » [ETA pour Estimated Time of Arrival N.D.L.R.], mais OVHcloud doit « avoir quelque chose de disponible avant 18 mois ».
IA : un marché « loin d’être figé » selon OVHcloud
Cette dépendance renforce la volonté de proposer des services serverless qui abstraient l’architecture matérielle afin d’obtenir une « plateforme générique » pour les éditeurs et les clients.
« Nous souhaitons que les startups et les entreprises européennes spécialisées dans l’IA, et qui ont de très bonnes idées, n’aient pas à migrer vers d’autres territoires pour pouvoir se développer », indique Alexis Gendronneau.
Dans un même temps, OVHcloud ne veut pas seulement déployer ses services d’IA dans ses data centers européens, mais également aux États-Unis et dans la région APAC. « Il faut pouvoir proposer des solutions partout là où les clients se trouvent », vante le responsable. La plupart des services du catalogue AI & Machine Learning sont déjà disponibles depuis la région cloud Canada.
Malgré les portfolios consacrés à l’intelligence artificielle de plus en plus garnis des fournisseurs américains, Alexis Gendronneau considère qu’OVH peut tirer son épingle du jeu.
Alexis GendronneauHead of Data Products, OVHcloud
« Le marché est loin d’être figé. Les clients sont opportunistes et c’est très bien. Nous sommes loin d’être derrière. Très souvent, nous sommes la meilleure réponse en matière de performance, d’efficacité ou même d’expérience utilisateur », défend-il.
Selon notre interlocuteur, les solutions d’IA d’OVH ne sont pas réservées aux startups. Les instances publiques, les grands groupes et les universités emploient AI Training, par exemple. En revanche, Alexis Gendronneau se garde bien de donner les noms de ces clients. À la connaissance du MagIT, Customs Bridge est l’un des seuls à communiquer sur son usage des services IA du fournisseur français.