Laurent - stock.adobe.com
Google Cloud ajoute des briques MLOps à son portfolio AI Platform
Google Cloud a annoncé la disponibilité prochaine de plusieurs services afin de constituer une plateforme MLOps associée à ses services de création et d’exécution d’algorithmes de machine learning
Si Google est généralement salué pour les travaux de ses chercheurs en matière de deep learning et de machine learning, son offre de produits consacrés à la Data science n’est pas des plus simples à appréhender. En effet, AI Platform n’en a que le nom : il s’agit d’un portfolio de produits que Google Cloud recommande de combiner pour composer une plateforme de data science.
Parmi les produits de ce portfolio AI Platform Pipelines disponible en bêta depuis le 11 mars dernier, est la première offre MLOps (Machine Learning Ops) du géant du cloud. Cette solution hébergée permet de gérer des workloads de machine learning pour l’ensemble des étapes du développement d’algorithmes (préparation de données, entraînement, test des modèles, déploiement en production, etc.) Toutefois, plusieurs éléments de configuration restent à paramétrer par les équipes de data science.
Simplifier les workloads TensorFlow sur Kubeflow
Le premier septembre, GCP a annoncé la disponibilité en octobre 2020 de la préversion de Managed Pipelines, une version entièrement managée d’AI Platform Pipelines. Celle-ci repose sur les mêmes composants, dont TensorFlow Extended (TFX), Kubeflow Pipelines et GKE.
TFX est une plateforme bout en bout et open source de création et de gestion de pipelines de machine learning à l’aide de Tensorflow. Kubeflow Pipelines est un équivalent libre conçu spécialement pour les containeriser sur Kubernetes. Sur GCP, Kubeflow Pipelines permet d'orchestrer les modèles créés à partir de Pytorch, XGBoost et scikit-learn.
Avec AI Platform Pipelines, il faut d’abord configurer un cluster sur le service d’orchestration de containers GKE, puis installer les SDK Kubeflow Pipelines et TFX, les configurer et les déployer avant de pouvoir commencer. En effet, les deux SDK interagissent avec Kubeflow, la plateforme qui va automatiser le déploiement des modèles dans des clusters Kubernetes (ici GKE).
Managed Pipelines, proposera lui une phase d’installation simplifiée pour TFX et des templates pour faciliter le déploiement des pipelines et leur gestion.
Pas de plateforme, mais des briques MLOps
Mais GCP découpe une nouvelle fois son offre. Pour constituer un socle MLOps sur ce cloud, il faut souscrire à plusieurs services. Dans la doctrine MLOps s’ajoute aux principes CI/CD les notions d’entraînement et de monitoring continu des algorithmes. Pour ce faire, GCP propose deux produits distincts : Continuous Evaluation, déjà disponible, et Continous Monitoring, qui sera lancé à la fin de l’année 2020.
Continuous Evaluation combine le service Prediction et celui d’étiquetage de données (équivalent d’Amazon Mechanical Turk, à savoir des étiqueteurs humains) afin d’échantillonner « régulièrement » les données en entrée et en sortie des prédictions d’évolution des modèles ML.
Continuous Monitoring doit surveiller les performances des modèles en production et donc repérer les bugs, les dérives de concepts et les aberrations. « Cela simplifiera la gestion des modèles à l’échelle et aidera les data scientists à se concentrer sur les modèles qui risquent de ne pas atteindre les objectifs commerciaux », promet Craig Wiley, directeur de la gestion des produits, Cloud AI Platform chez GCP.
Le responsable assure que Managed Pipelines et Continuous Monitoring reposent sur un nouveau service nommé ML Metadata Management dont la disponibilité en préversion est prévue pour la fin du mois de septembre.
Sans en préciser véritablement l’origine dans l’article de blog, LeMagIT comprend qu’il s’agit d’une version managée de ML Metadata, une librairie de TFX (indépendante de Tensorflow) pour enregistrer automatiquement et explorer des métadonnées, une brique déjà présente dans AI Platform Pipelines.
« AI Platform Pipelines suivra automatiquement les artefacts et le lignage et les équipes d’IA peuvent également utiliser directement le service ML Metadata pour les charges de travail personnalisées, le suivi des artefacts et des métadonnées », écrit Craig Wiley.
Feature Store, lui est un service de stockage qui sera disponible à la fin de l’année. Il s’agit d’un dépôt centralisé à l’échelle d’une entreprise pour que les data scientists puissent enregistrer les features, des variables importantes des modèles ML. GCP y ajoute des outils pour régler les problèmes d’inconsistances entre les features à l’entraînement et à l’inférence. Le concept de Feature Store a été imaginé par les ingénieurs d’Uber. Netflix et AirBNB ont adopté le principe.
Chez Uber, cette couche de stockage nommée Michaelangelo Palette est construite autour de Spark/Scala, Hive et la base de données Cassandra chez le spécialiste du VTC. Chez Google, un projet open source similaire existe : Feast. Il combine BigQuery, Big Table, Redis et Apache Beam.
GCP propose également d’autres services pour la gestion des algorithmes à grande échelle, dont Vizier maintenant accessible en bêta. Vizier permet d’optimiser par boîte noire les hyperparamètres des modèles trop complexes, nombreux ou coûteux pour être manipulés par la main de l’homme. Enfin, le service Notebooks (JupyterLab managé) est en disponibilité générale.
En parallèle, le géant du cloud a annoncé deux produits d’intelligence artificielle pour les centres d’appels/de contacts : Dialogflow CX et Contact Center IA. L’on peut mentionner aussi Document IA, une solution OCR d’extraction de données (et un convertisseur de documents PDF en JSON).