Getty Images/iStockphoto

Le modèle « Large » du Français Mistral débarque sur watsonx

Le LLM propriétaire de Mistral est désormais disponible depuis la plateforme de Data Science d’IBM. Il y côtoie des LLMs de Meta et de Google (et d’IBM). Pour le Français, watsonx est un référencement de plus après AWS, Azure et Snowflake.

IBM vient d’annoncer la disponibilité de Mistral Large sur son environnement pour les développeurs d’IA, watsonx.ai.

Mistral Large vient compléter la gamme des LLMs (open source et propriétaires) déjà disponibles sur la plateforme d’IBM, dont ceux de sa famille de modèles de fondation IBM Granite.

« Nous fournirons également à nos clients une protection pour Mistral Large par le biais d’une indemnisation plafonnée pour la propriété intellectuelle – ce qui en fait le premier modèle de fondation tierce auquel IBM étend l’indemnisation », ajoute Armand Ruiz, Vice President, watsonx.ai & watsonx.gov

En plus de Mistral Large, IBM propose plusieurs produits complémentaires « prêts à l’emploi » pour faire sa propre GenAI dont un entrepôt de données (de type Lakehouse), un Prompt Lab, un Tuning Studio, et des capacités de supervision des environnements de production et de gouvernance IA.

Pour mémoire, watsonx permet de déployer des modèles dans des environnements de cloud public, mais aussi sur site.

Le modèle Large est le plus puissant de Mistral AI. Ce LLM cible particulièrement les tâches complexes qui nécessitent des capacités de raisonnement et multilingues. Il permet également l’appel de fonction – c’est-à-dire la capacité de se connecter à des outils externes (par APIs par exemple). « Il facilite ainsi la création d’applications répondant à des cas d’usage spécifiques » vante IBM.

Ce modèle est également adapté pour la programmation augmentée. « Il permet de générer, réviser et commenter du code, avec la possibilité de générer des résultats au format JSON, une fonctionnalité qui permet aux développeurs d’interagir avec le modèle de manière plus naturelle, afin d’extraire des informations dans un format structuré », explicite Armand Ruiz.

Jusqu’ici, Mistral Large était disponible sur La Plateforme (la PaaS maison de Mistral AI, hébergée sur Azure) ainsi que sur AWS (Bedrock) et Azure, ou encore sur Snowflake.

Le modèle Large de Mistral est un des trois modèles propriétaires de la gamme de la startup française, avec le Small et Codestral (son LLM pour développeur). Ses autres modèles – 7B, 8x7B, 8x22B, Codestral-Mamba et Mathstral, etc. – sont disponibles en « open weight » (ouvert, mais pas open source au sens de la définition de l’OSI).

De son côté, watsonx.ai propose 25 modèles, dont plusieurs de Google, de Meta et donc de Mistral (sans oublier ceux d’IBM).

Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM