IBM Think 2019 : le jour où Watson devint multi-plateformes pour rapprocher l’AI des données
En plaçant certains services Watson sur sa plateforme Kubernetes, IBM offre la possibilité de déployer des services d’AI là où se trouvent les données des entreprises, cloud ou pas, multi-cloud ou pas. Mais cela permet surtout d’orchestrer des usages hybrides.
IBM a attendu l’édition 2019 de sa conférence annuelle Think, qui se tient actuellement à San Francisco, pour doter Watson de capacités d’extension de ses services vers le multi-cloud. Par multi-cloud, il faut ici comprendre multi-fournisseurs et multi-technologies. Watson n’est désormais plus un moteur cognitif cloisonné à IBM Cloud, mais ses services, ainsi que les modèles d’AI qui en découlent, peuvent être opérés dans les clouds publics, celui d’IBM mais aussi « d’autres environnements publics, hybrides et multi-cloud ». AWS, Azure et Google Cloud ne sont pour l’heure pas cités.
IBM a donné un nom à cette initiative : Watson Anywhere. Mais ce qu’il faut retenir ici, c'est que cette dimension multi-cloud est aujourd’hui possible parce qu’IBM a architecturé certains services Watson pour Cloud Private. Watson bénéficie donc du socle Kubernetes opérationnel de Big Blue qui sert aujourd’hui de base de contrôle à l’ensemble de la stratégie multi-cloud du groupe.
Ce socle sur lequel repose aujourd’hui Watson est logiquement Cloud Private for Data, qui outre le fait de proposer un moteur Kubernetes, embarque également des composants - eux-aussi dans des microservices - pour gérer, stocker, classer et traiter des données. Il renferme par exemple certaines fonctions de Data Science Experience, le studio de création de modèle d’AI du groupe, des capacités d’ETL, de catalogue et de nettoyage de données.
Rapprocher l’AI des données
Avec Watson Anywhere, l’objectif premier pour IBM, est « d’intégrer l’IA plus près des données afin que les entreprises aient la capacité d’entraîner leurs modèles avec leurs données et surtout de les personnaliser en fonction de leur propre domaine d’activités », explique Hillery Hunter, vice-président et CTO, IBM Cloud Infrastructure. Données qui selon Big Blue sont réparties dans plusieurs silos, qu’ils soient cloud ou pas.
Pour disposer de cette granularité, certains services Watson ont été placés sous la forme de microservices. L’idée est ainsi de découpler les composants Watson, de proposer la capacité de les exposer sur l’environnement que souhaite l’entreprise, pour au final en accélérer l’accès. « Nous essayons de simplifier l’AI qui est une chose très complexe », résume Nicolas Sekkaki, le patron d’IBM en France. Dans l’intelligence artificielle, les projets ont de multiples visages et l’on doit « rendre l’AI plus consommable ». Un projet d’IA est avant tout un projet d’experts métiers, rappelle-t-il.
Pour l’heure, ces nouveaux microservices embarquent Watson Assistant (qui propose des modèles de Machine Learning pré-entrainés, présentés à l’occasion d’IBM Think 2018) et Watson OpenScale (qui permet notamment de détecter les biais des décisions prises par les algorithmes). IBM promet l’ajout de Watson Knowledge Studio et Watson Natural Language Understanding plus tard dans l’année.