Watsonx : IBM convertit Watson à l’IA générative
Le géant historique de l’IT se concentre sur la fourniture d’un environnement de cloud hybride et d’une stratégie d’IA générative axée sur les aspects de la technologie liés à l’entreprise, aux données et à la gouvernance.
Watson, le retour. Avec l’introduction de sa nouvelle plateforme Watsonx, IBM rafraîchit la devanture de Watson, son système d’IA vieux de plus de deux décennies.
Présentée en avant-première lors de la conférence IBM Think 2023 mardi, Watsonx est une nouvelle plateforme d’IA et de données pour les modèles de fondation et l’IA générative.
IBM Watsonx : une approche MLOps de l’IA générative
La plateforme comprend Watsonx.ai, Watsonx.data et Watsonx.governance.
Watsonx.ai est un studio qui permettra aux entreprises d’entraîner, de tester et de déployer des fonctions d’IA générative alimentées par des modèles de fondation.
Le studio, dont la disponibilité est prévue en juillet prochain, comprend également une bibliothèque de modèles alimentée par les modèles de fondation entraînés par IBM. Parmi les modèles disponibles en version bêta, citons fm.code, fm.NLP et fm.geospatial.
Fm.code est une collection de modèles qui génèrent automatiquement du code pour les développeurs. Fm.NLP est une suite de grands modèles de langage pour des secteurs spécifiques. Enfin, fm.geospatial fournit des modèles fondés sur des données climatiques et de télédétection afin d’aider les organisations à mieux connaître les modèles de catastrophes naturelles, la biodiversité, l’utilisation des sols et les processus géophysiques.
Ces modèles s’appuieront eux-mêmes sur des modèles NLP/NLG aux noms de code géologiques : Granite, Sandstone, Obsidian et Slate.
Les modèles Granite sont basés sur une architecture « de type GPT ». Ils s’appuient uniquement sur le décodeur d’un transformeur pour générer du texte ou du code. Sans trop se mouiller, l’on comprend que la série fm.code a pour composant principal un modèle Granite couplé à CodeNet, un jeu de données concocté par IBM réunissant 14 millions de lignes de code et environ 4 000 problèmes de programmation dans six langages (Python, Java, C, Ruby, C# et C++).
La série de modèles Sandstone a sûrement son importance dans la phase d’entraînement des modèles fmcode et fmNLP. Ceux-là reposent sur une architecture encodeur-décodeur inspirée des modèles T5 de Google et sont « bien adaptés pour les tâches d’affinage (fine tuning en VO) ».
Quant à Slate, il s’agit également de modèles encoder-only basés sur RoBERTa, une méthode de préentrainement NLP développé par Meta. Ceux-là sont bien moins efficaces pour générer du texte, mais idéale pour accomplir des tâches de compréhension : classer des textes et des mots, masquer des informations, ou encore aider à répondre à des questions. Tous les modèles « fm » sont entraînés sur son supercalculateur cloud Vela, déployé en mai 2022.
En ce qui concerne les modèles de traitements des données géospatiaux, IBM Research a plusieurs projets en cours. L’un d’entre eux implique la NASA.
Watsonx.ai studio s’appuiera sur des bibliothèques open source et proposera des milliers de modèles ouverts et d’ensembles de données disponibles sur la plateforme Hugging Face. Pour l’instant, les outils référencés sur le GitHub d’IBM sont en accès anticipé à la demande.
Watsonx.data est un data store consacré au développement de projets d’IA construit sur une architecture Lakehouse ouverte. Il s’agit plus précisément d’une version distribuée et augmentée du projet OpenDataHub. Il accueillera les données gouvernées et les charges de travail d’IA dès juillet, selon IBM. Watsonx.governance est une boîte à outils visant à atténuer les risques associés à l’IA et à protéger la vie privée des clients. Elle devrait être généralement disponible dans le courant de l’année et rassembler un ensemble d’outils proposés en open source ou soutenus commercialement par IBM.
Watsonx permet à l’entreprise de 111 ans d’entrer sur le marché florissant de l’IA générative, à la suite de géants technologiques tels que Google, Microsoft et AWS, ainsi que de fournisseurs indépendants de matériel et de logiciels d’IA tels que Nvidia et SambaNova.
Le facteur de différenciation d’IBM
S’il semble qu’IBM soit en retard sur ce marché en pleine expansion, ce n’est pas le cas, affirme Daniel Newman, analyste chez Futurum Group.
« C’est ce que j’appelle la prochaine vague [d’IA générative] », théorise-t-il, en notant qu’IBM offre aux entreprises une plateforme d’IA axée sur la sécurité et la confidentialité des données.
« Ce que nous avons observé jusqu’à présent, c’est le lancement d’outils pour les utilisateurs, les consommateurs, ainsi que quelques applications de productivité », ajoute-t-il. Watsonx est différent, car il se concentre uniquement sur les entreprises, selon l’analyste.
En outre, même si les grands fournisseurs de cloud ont lancé des produits d’IA pour les entreprises, l’adoption de l’IA générative n’en est qu’à ses débuts, tient à rappeler Arun Chandrasekaran, analyste chez Gartner.
« Davantage d’entreprises clientes souhaitent personnaliser les modèles d’IA générative pour répondre à leurs cas d’usage spécifiques », signale-t-il. « IBM mise sur le fait que de nombreux modèles seront utilisés (et nécessaires), mais que les clients chercheront un ensemble cohérent d’outils pour les rendre opérationnels ».
Le fournisseur d’IA se différencie également en se concentrant sur l’IA et le cloud hybride, poursuit Daniel Newman.
Selon l’analyste, IBM mise sur Red Hat – l’éditeur de logiciels open source qu’il a acquis en 2018 – pour séduire les entreprises qui construisent des systèmes de gouvernance des données pour la conformité sur des infrastructures hybrides cloud et sur site.
De fait, Red Hat OpenShift est la fondation qui soutient les outils (dont PyTorch, Caikit, ONNX, KubeRay, OpenDataHub, etc.) nécessaires à la mise en service des modèles d’IA générative à distance ou localement.
« Le cloud hybride vous donne deux fois et demie plus de valeur qu’une solution tirée d’un cloud sous-jacent », affirme Arvind Krishna, PDG d’IBM, lors d’une keynote diffusée en direct le 9 mai.
IBM et Red Hat ont par ailleurs dévoilé un effort de collaboration visant à faciliter la programmation pour les développeurs grâce à Watson Code Assistant. L’outil générera du code, attribuera la source du code et IBM laissera les entreprises affiner les modèles sous-jacents. En outre, l’assistant permet aux développeurs de générer des playbooks Red Hat Ansible en langage naturel afin de déployer plus rapidement des librairies logicielles ou les applications qu’ils doivent livrer.
Par ailleurs, IBM peut jouer le rôle de prestataire de services et de consultant auprès des entreprises pour la gestion de leurs modèles de base, rappelle l’analyste de Futurum Group.
Les partenariats d’IBM avec de grandes sociétés de conseil comme Accenture aideront également à déployer des modèles d’IA à grande échelle, ajoute-t-il.
« Les entreprises ont des tonnes de données, et elles vont vouloir construire des modèles très spécifiques au-dessus de ces différents outils de base qui sont offerts dans le cadre de Watsonx », avance Daniel Newman. « Ces modèles deviendront spécifiques aux différents secteurs de l’entreprise et ils auront besoin de beaucoup d’aide », assure-t-il.
Des défis à surmonter
Watsonx s’accompagne de défis. Le principal obstacle est la rapidité de mise sur le marché, d’après Arun Chandrasekaran.
« IBM doit augmenter sa part de marché dans l’espace de l’IA générative », martèle-t-il. « Alors que la recherche d’IBM est un centre d’innovations important dans le domaine de l’IA, IBM doit accélérer le rythme auquel elle commercialise ses capacités de recherche ».
Selon Daniel Newman, la concurrence constitue un autre obstacle majeur. De nombreux acteurs (en particulier les géants du cloud Google et Microsoft) rivalisent pour devenir les fournisseurs dominants par lesquels les entreprises pourront difficilement se passer afin d’accéder à des technologies d’IA générative.
La force d’IBM réside dans sa base de clients diversifiée, ses services de conseils et ses déploiements dans le monde du cloud hybride, ce qui pourrait lui donner une base solide, conclut-il.