Les LLM de Mistral AI rejoignent les plateformes de Databricks et Snowflake
Après Microsoft, Mistral AI, l’éditeur français de grands modèles de langage a annoncé coup sur coup des partenariats avec les deux grands rivaux de la mouvance lakehouse, Snowflake et Databricks. Pour l’heure, Mistral profite du fait que tous les acteurs IT cherchent à garnir leur catalogue de LLM afin d’offrir du choix aux clients, signalent les analystes.
D’un côté, depuis le 5 mars avec Snowflake, Mistral AI met à disposition les modèles « open weight » (ouvert, mais pas open source au sens de la définition de l’OSI) Mistral 7B et Mixtral 7x8B ainsi que le LLM propriétaire Mistral Large – jusqu’alors uniquement disponible sur Azure AI et La Plateforme de Mistral – depuis le service managé en préversion privée Snowflake Cortex.
Cortex a été mis sur pied sous le regard attentif de Sridhar Ramaswamy, le nouveau PDG de Snowflake. Pour l’occasion, le fournisseur rappelle l’existence de Snowflake Cortex LLM Functions en préversion publique, à savoir un moyen d’interagir avec les LLM à l’aide de requêtes écrites en SQL ou en Python. Plus tard, Snowflake fournira des templates complets pour concevoir des assistants conversationnels – des tchats – depuis Streamlit, un outil pour concevoir des front-end applicatifs à partir d’éléments rédigés en Python.
Des investissements remarqués
De l’autre, depuis le 14 mars, Mistral pousse les modèles Mistral 7B et Mixtral 8x7B sur la marketplace Databricks. En juin 2023, Databricks a acquis MosaicML pour 1,3 milliard de dollars, une plateforme de déploiements de modèles. Elle peut servir à déployer les deux modèles « open weight » dans les environnements orchestrés par Databricks. Outre le fait de pouvoir « servir » les modèles, c’est-à-dire de les déployer et de les rendre accessibles par API, l’éditeur dirigé par Ali Ghodsi permet également d’interagir avec ces points de terminaison en langage SQL, à travers la fonction « ai_query », accessible en préversion publique. Mosaic AI Playground, lui, correspond à une interface permettant d’expérimenter des scénarios d’usage des LLM, par exemple dans le cadre de la conception d’un chatbot.
Pourquoi Databricks n’a-t-il pas accès à Mistral Large alors que Snowflake et Microsoft le proposent ? Il faut bien comprendre que l’annonce de ces partenariats résulte des engagements financiers des divisions « Venture Capitalist » de ses entreprises dans Mistral AI. Snowflake Ventures et Databricks Ventures ont participé à la levée de fonds en série A de Mistral AI, lui permettant de récolter 385 millions d’euros. Microsoft a pris une part minoritaire dans l’entreprise le 27 février dernier en y « injectant » environ 15 millions d’euros, ce qui lui a permis d’obtenir une forme d’exclusivité temporaire sur l’accès à Mistral Large depuis Azure AI.
En décembre 2023, Mistral AI se rapprochait de Google Cloud afin que le fournisseur cloud propose des modèles Mistral 7B, (puis Mixtral 7x8B) dans son « jardin de modèles ». C’est aussi vrai pour AWS qui accueille les mêmes modèles à travers Amazon Bedrock, sa plateforme consacrée au déploiement de LLM. Ils sont aussi disponibles sur Hugging Face.
Mistral AI veut placer ses modèles partout où il le peut
« L’objectif est d’apporter l’intelligence artificielle et générative partout, dans les mains des développeurs », résume Arthur Mensch, cofondateur et CEO de Mistral AI lors de l’événement Salesforce World Tour le 12 mars à Paris. « Nous souhaitons offrir les meilleurs LLM possibles ».
« Nous voulons permettre aux développeurs de spécialiser son modèle, de le déployer où ils veulent, sur n’importe quel cloud », ajoute-t-il.
« Mistral représente une classe émergente de ce que nous appelons les small language models [que LeMagIT nomme parfois les petits grands modèles de langage, en référence au film Little Big Man, N.D.L.R.] », indique Kevin Petrie, analyste chez Eckerson Group. « Ces modèles requièrent beaucoup moins de paramètres que la première vague de grands modèles de langage… [et] ils permettent d’économiser de l’argent par rapport à d’autres solutions plus massives ».
« Mistral aide les entreprises à lancer et à affiner ses modèles “open source” sur leurs propres petits ensembles de données spécifiques à un domaine », poursuit-il. « Cette focalisation sur un domaine spécifique représente la prochaine vague d’innovation dans le domaine de la GenAI ».
Salesforce – qui a également investi dans la startup à travers Salesforce Ventures – avance qu’il permettra à ses clients d’intégrer des LLM tiers selon une approche « Bring your Own Model ».
Un nouveau bras de fer entre Snowflake et Databricks
Pour Snowflake et Databricks, l’enjeu est différent. Le premier a su s’imposer auprès des entreprises comme le fournisseur d’un data warehouse cloud suffisamment robuste pour remplacer Oracle, BW/HANA ou encore Teradata dans le cloud. Le second est davantage spécialisé dans les traitements à large échelle de données et dans le machine learning : il est l’un des grands contributeurs au moteur Apache Spark.
Mike LeoneAnalyste, ESG
« Il est apparu clairement, lors des conférences des utilisateurs de Snowflake et de Databricks qui se sont tenues l’année dernière en juin, que Databricks est beaucoup plus mature, capable et prêt pour tout ce qui concerne l’IA, y compris la GenAI », avance Doug Henschen, analyste chez Constellation Research. « Du point de vue de l’entreposage de données, Databricks est moins éprouvé et perfectionné que Snowflake, mais tous les regards sont tournés vers l’IA à l’heure actuelle ».
Un constat partagé par Mike Leone, analyste pour Enterprise Strategy Group, une filiale de TechTarget [également propriétaire du MagIT]. « Je pense que Snowflake va vraiment accélérer sa communication et ses partenariats en matière d’IA générative sous sa nouvelle direction », déclare-t-il. « Ils sont perçus comme étant en retard sur leurs concurrents dans ce domaine en raison de leur approche modeste des LLM jusqu’à présent ».
« Il est important pour Snowflake de montrer qu’il participera à la conversation sur l’IA dès que possible et aussi souvent que possible », poursuit pour sa part Doug Henschen. « L’annonce avec Mistral est un début, mais il faudra offrir aux clients beaucoup plus de choix. Le choix du modèle est ce qui comptera réellement [et] les clients de Snowflake voudront et auront besoin de plus de choix ».
Une course à l’armement
Doug HenschenAnalyste, Constellation Research.
À ce jeu, l’analyste considère que Google Cloud a pris les devants, avec plus de 130 modèles référencés dans son jardin de modèles. Tous ne sont pas des LLM, comme LeMagIT l’a déjà précisé. De même, Databricks dénombre 85 modèles sur sa place de marché, mais 18 sont des LLMs.
Il n’y a pas que les LLM dans la vie, il y a les outils adjacents aussi. « Je dirais que Databricks est un leader, mais qu’il doit se maintenir au niveau de certains grands [pairs] aux poches bien garnies, notamment AWS, Microsoft et Google », signale l’analyste de Constellation Research. « L’accès aux modèles n’est qu’un aspect de la concurrence ».
Outil pour propulser les architectures RAG, base de données vectorielle, suite de templates pour animer des chatbots, jeux de données pour affiner l’entraînement des modèles, capacité de comparaison des LLM sur des tâches spécifiques, etc. Voilà ce qui devrait préoccuper l’ensemble du marché au cours des prochains mois.