IA générative : MongoDB muscle son offre en direction des entreprises
Lors de son événement MongoDB.local à New York, MongoDB a lancé jeudi dernier une série de nouvelles fonctionnalités autour de sa base de données NoSQL multimodèle. Outre la prise en charge des vecteurs et des données en quasi-temps réel, l’éditeur entend accompagner ses clients dans la conception d’applications d’IA générative.
Basé à New York, MongoDB est un fournisseur de bases de données dont la plateforme NoSQL offre aux utilisateurs une alternative aux bases de données relationnelles traditionnelles, qui ont parfois du mal à gérer certaines charges de travail et certains types de données.
Depuis deux ans, l’éditeur a mis l’accent sur Atlas, une DBaaS et une suite de fonctionnalités consacrées aux développeurs, alors que l’intérêt pour le développement de modèles et d’applications d’IA a explosé.
Les mises à jour récentes de cette plateforme comprennent le lancement d’Atlas Vector Search et d’Atlas Search Nodes en décembre 2023 et l’introduction en novembre 2023 du MongoDB Partner Ecosystem Catalog, où les utilisateurs peuvent désormais accéder aux données et aux produits d’IA partagés par les nombreux partenaires du fournisseur.
La semaine dernière, l’éditeur a dévoilé le MongoDB AI Applications Program (MAAP) afin de fournir aux entreprises des services de conseil stratégique et une technologie intégrée pour la construction et le déploiement d’applications d’IA générative. MAAP comprend des architectures de référence, des offres de services professionnelles et du support sur la plateforme Atlas.
Le programme inclut également des intégrations avec des LLM de fournisseurs tels qu’Anthropic et Cohere, des capacités clés telles que la recherche vectorielle et le « retrieval-augmented generation » (RAG), un environnement de développement sécurisé et l’accès à des experts pour aider les entreprises à se lancer dans l’IA générative.
Kevin Petrie, analyste chez BARC U.S, signale que les modèles d’IA générative deviennent incontournables pour les entreprises. Mais pour qu’elles réussissent leur déploiement, les modèles de langage doivent être combinés avec des fonctions analytiques et opérationnelles qui sont propres à chaque entreprise et qui l’aident à tirer une valeur commerciale.
MAAP est conçu pour permettre aux clients de MongoDB de tirer cette valeur commerciale et constitue donc un ajout important au catalogue de l’éditeur, selon l’analyste.
Sanjeev MohanFondateur et directeur, cabinet d’analyse SanjMo
« Le programme MAAP de MongoDB aide les développeurs à optimiser la façon dont ils intègrent les modèles linguistiques dans les flux de travail de l’entreprise », avance Kevin Petrie. « MongoDB veut aider de nombreuses entreprises à se différencier avec des logiciels axés sur les données et orientés vers le cloud, et ce nouveau programme aide leurs clients à tirer profit de la vague de développement d’applications d’IA générative ».
MAAP est toutefois limité, selon Sanjeev Mohan, fondateur et directeur du cabinet d’analyse SanjMo. Selon l’analyste, le catalogue de LLM accessibles depuis le programme est limité.
« MongoDB propose à ses clients une offre clé en main, mais au coût d’un nombre limité d’intégrations », déclare-t-il. « C’est un compromis. MAAP est une bonne solution pour de grandes entreprises souhaitant que leurs développeurs expérimentent. Mais si c’est une forme d’indépendance que vous cherchez, il faut comprendre que MAAP vous limite à son écosystème ».
Pour l’heure, le programme est soutenu par Anthropic, Cohere, AWS, Google Cloud et Microsoft, qui sont également là pour fournir des services de consultance. Dans la liste encore restreinte de partenaires, il faut noter la présence de Langchain, LlamaIndex et de Together.ai
Renforcer les capacités de traitement en (quasi) temps réel et des vecteurs
Au-delà du lancement d’un programme de consultance consacré à l’IA générative, MongoDB a ajouté de nouvelles capacités pour Atlas.
Atlas Stream Processing, dévoilé en préversion en juin 2023, est désormais disponible de manière générale et vise à aider les utilisateurs à créer des applications combinant des données au repos avec des données en mouvement, afin qu’elles puissent répondre à des conditions changeantes et permettre des décisions en temps réel.
Les données ingérées en continu incluent, entre autres, des informations provenant de sources telles que les appareils IoT, le comportement des clients lorsqu’ils naviguent et les flux d’inventaire.
MongoDB a également annoncé la disponibilité générale d’Atlas Search Nodes sur AWS et Google Cloud. Le service est toujours en préversion sur Microsoft Azure.
Atlas Search Nodes fonctionne de concert avec Atlas Search afin de fournir une infrastructure aux charges de travail d’IA. Ces nœuds de recherche sont indépendants du cœur opérationnel du SGBD NoSQL de manière que les clients puissent isoler des charges de travail potentiellement expérimentales des données de production. Outre des gains de performance, l’éditeur évoque des économies potentielles.
Par ailleurs, MongoDB a introduit Atlas Edge Server en préversion publique. Cet outil doit permettre aux utilisateurs de déployer et d’opérer des applications à la périphérie pour que les métiers puissent obtenir des indicateurs augmentés à l’IA dans leur flux de travail.
Ces fonctionnalités de la DBaaS sont en elles-mêmes des ajouts intéressants, mais leur « véritable pouvoir se révèle quand elles sont utilisées à l’unisson », selon Sanjeev Mohan.
Kevin PetrieV-P recherche et analyste , Barc
« La combinaison d’Atlas Stream Processing, Search Nodes et des modèles d’IA est très puissante », affirme-t-il.
Si des données peuvent être ingérées, vectorisées et envoyées à un LLM en presque temps réel, cela peut servir à renseigner un métier au cours d’une discussion avec un client. À l’inverse, si les charges de travail d’IA générative s’exécutent sur les mêmes nœuds que ceux de la base de données, l’entièreté du système peut en pâtir, considère le fondateur de SanjMo.
Kevin Petrie de Barc US souligne, lui aussi, l’importance de Search Nodes comme un moyen d’obtenir des traitements à faible latence requis dans la mise en place de système de prise de décision en temps réel. « Les applications les plus consommatrices de données, en particulier celles propulsées par l’IA générative, réclament une faible latence », note-t-il. « Les améliorations d’Atlas sont obligatoires pour que les clients puissent tirer réellement parti de leurs applications de GenAI ».
Un pas dans la bonne direction, selon les analystes
À noter que MongoDB a également présenté une intégration entre Atlas Vector Search et Amazon Bedrock.
Pour rappel, Bedrock est le service managé d’AWS permettant d’accéder via API, de déployer et de comparer des LLM fournis par le fournisseur cloud et ses partenaires tiers. L’éditeur n’a pas précisé si cette intégration pourra être exploitée dans le cadre du programme MAAP.
Prises dans leur ensemble, les annonces de MongoDB sont significatives, juge Kevin Petrie. L’analyste considère qu’elles aident les clients à développer des applications d’IA, alimentent les utilisateurs en données en temps réel et incluent la prise en charge de fonctionnalités clés telles que l’architecture RAG, qui rendent les modèles d’IA plus précis. En outre, les partenariats sont essentiels afin de fournir aux clients un écosystème pour le développement de l’IA.
« La GenAI bouscule l’innovation logicielle cloud native », avance Kevin Petrie. « Ces annonces montrent que MongoDB comprend l’ampleur de ce changement dans l’industrie et a l’intention d’en tirer profit ».
Cependant, MongoDB peut encore faire plus pour fournir aux clients toutes les capacités de développement, de déploiement et de gestion des modèles et des applications d’IA, selon Sanjeev Mohan.
En particulier, l’analyste note que l’éditeur pourrait s’illustrer davantage dans la gouvernance de l’IA, en proposant deux fonctionnalités spécifiques.
« J’aimerais que MongoDB adopte la gouvernance de l’IA », insiste Sanjeev Mohan. « MongoDB a très bien réussi son implémentation de la recherche vectorielle et du RAG. La question est maintenant de savoir comment permettre l’apprentissage en contexte et le réglage fin [des modèles]. J’aimerais qu’ils lancent une boîte à outils pour les développeurs ou des frameworks pour les agents d’IA afin d’assurer leur gestion de bout en bout ».