Dmitry - stock.adobe.com

Pour mieux rivaliser avec OpenAI, Mistral s’associe à… Microsoft

Mistral AI refait parler d’elle. Si le grand public retient l’annonce de « Le Chat », un agent conversationnel similaire à ChatGPT, il faut surtout noter le partenariat de la startup née en France avec Microsoft. Une alliance déjà dans le collimateur de la Commission européenne.

Mistral AI a annoncé hier un partenariat « pluriannuel » avec Microsoft pour utiliser les HPC du fournisseur cloud, proposer des modèles as a service et « étudier la possibilité de collaborer à l’entraînement de modèles spécifiques pour certains clients, notamment ceux du secteur public européen ».

En attendant, en plus de Mistral 7B et de Mixtral (qui arriveront bientôt sur GCP et AWS), le service Azure AI accueillera en exclusivité Mistral Large, son modèle d’IA générative le plus abouti à ce jour. Il sera également disponible sur « La Plateforme » de Mistral AI, elle aussi hébergée sur Azure, plus précisément sur la région Suède Centre.

Schneider Electric, Doctolib et CMA CGM ont déjà pu tester Mistral Large sur Azure AI.

« Ils savent que le marché réclame du choix » déclare Mark Beccue, analyste indépendant spécialiste en AI auprès d’une publication sœur du MagIT, en faisant référence à Microsoft.

« [Microsoft] comprend que la notion de taille unique ne convient pas à tout le monde », ajoute-t-il. « Ils poursuivent cette démarche pour que les clients puissent s’y retrouver dans la conduite de leurs projets ».

Mistral Large contre GPT-4

Depuis sa création, la jeune startup n’est pas la plus bavarde sur les techniques de machine learning et de deep learning qu’elle utilise pour entraîner ses modèles. Comme Mistral Large est un modèle préentraîné sous licence commerciale – contrairement aux deux modèles « open weight » préalablement disponibles – le silence n’est pas total, mais presque.

La startup indique que Mistral Large dispose d’une fenêtre de contexte de 32 000 tokens, comme GPT-4-32K, mais inférieure à GPT4-Turbo (128 000 tokens) et à Claude 2.1 (200 000 tokens). Mistral Large comprend et génère des textes en anglais, français, en allemand, et en italien. Il suivrait « précisément » des instructions et peut nativement appeler des fonctions. Cette dernière capacité est renforcée par le fait que « La Plateforme » prend en charge des sorties formatées en JSON.

De manière générale, Mistral Large obtiendrait des résultats supérieurs à Claude 2, Gemini Pro 1.0, GPT 3.5 et Llama 2-70B quand il est confronté aux benchmarks « communément utilisés ». Néanmoins, GPT-4 continue de dominer la mêlée. En compréhension des langues, Mistral Large s’en sort mieux que LLama 2-70B. Il semble particulièrement bon pour les tâches de mathématiques et de génération de code. Concernant les tests de raisonnement, il frôlerait les capacités de GPT-4.

Mistral AI a, par ailleurs, présenté Mistral Small, une version commerciale et optimisée « pour la latence et les coûts » de Mistral 7B, dont les performances seraient supérieures à Mixtral (Mixtral 8x7B).

Désormais, la startup fournit deux points de terminaison (API) vers ses modèles « open weight » Mistral 7B et Mixtral, et deux autres vers les LLM commerciaux, Mistral Small et Mistral Large. Mistral Medium est maintenu, mais ne sera pas mis à jour.

Le Chat, un ChatGPT à la Mistral AI

Il développe également le prototype de Mistral Next, un modèle entraîné pour générer des réponses concises, en sus de Mistral Embed, un modèle réservé à la production d’embedding (en anglais seulement, pour le moment).

Depuis « La Plateforme », les appels vers l’API Mistral 7B sont facturés 20 centimes d’euros pour 1 million de tokens en entrée et 20 centimes pour 1 million de tokens en sortie. Pour la même volumétrie, les appels vers l’API de Mixtral coûtent 65 centimes en entrée et 65 centimes en sortie. L’ingestion de 1 million de tokens dans Mistral Small revient à 1,85 euro, tandis que le million de tokens en sortie est facturé 5,5 euros. Avec Mistral Large, ces tarifs grimpent à 7,3 euros en entrée et 22 euros en sortie. Les tarifs pratiqués depuis la marketplace d’Azure pour Mistral Large sont similaires, mais sont ramenés à la maille des 1 000 tokens. En clair, le barème en place est proche de celui d’OpenAI, de Microsoft, d’AWS et de GCP pour des modèles équivalents.

Outre « La Plateforme », la société a lancé la bêta ouverte sur inscription pour « Le Chat » (à ne pas confondre avec le savon ou la lessive), un démonstrateur d’assistant conversationnel concurrent de ChatGPT. Ce front-end interagit avec l’API de Mistral Large et prendra en charge Mistral Small et Next. La startup lancera plus tard Le Chat Enterprise, un concurrent de ChatGPT Enterprise que les clients pourront déployer eux-mêmes. Cette version disposera de « mécanismes affinés de modération », pour lutter contre les hallucinations.

Mistral Large est, pour l’heure, une exclusivité cloud (Azure), mais la startup entend continuer de proposer des modèles à déployer sur site ou sur les VM cloud de son choix.

Microsoft sous surveillance

 La startup française s’était montrée tout à fait transparente sur sa volonté de commercialiser des LLM propriétaires. En revanche, son marketing « cocorico » s’effrite à vue d’œil. Lors de son tour de table de 385 millions d’euros, Mistral AI a vu son panel d’investisseurs étrangers grossir. Les Américains Andreessen Horowitz (az16) et Salesforce Ventures, entre autres, ont rejoint l’aventure. Selon les informations confirmées par Reuters, dans le cadre du partenariat, Microsoft a (pour l’heure) investi 15 millions d’euros dans Mistral AI, mais ne détient aucune part. Cet investissement pourra être converti en equity « au prochain tour de table de l’entreprise ».

L’accord entre Microsoft et Mistral AI fait déjà l’objet de la méfiance des instances européennes. Une porte-parole de la Commission européenne a déclaré auprès de l’agence de presse et de Politico que la Commission s’intéressera de près à cette opération, comme elle souhaite enquêter sur l’accord trouvé entre Microsoft et OpenAI.

Si le géant du cloud entend offrir du choix, le communiqué de Brad Smith, président de Microsoft, consacré aux engagements du groupe « pour promouvoir l’innovation et la compétition dans la nouvelle économie de l’IA » prouve qu’il sait être attendu au tournant. « Si les principes que nous lançons aujourd’hui représentent une initiative d’autorégulation, ils ne doivent en aucun cas suggérer un manque de respect pour l’État de droit ou le rôle des régulateurs », assure-t-il. « Nous sommes pleinement conscients que les législateurs, les autorités de la concurrence, les régulateurs, les responsables de l’application des lois et les juges continueront à faire évoluer les règles de la concurrence et les autres lois et règlements relatifs à l’IA ».

Pour approfondir sur Intelligence Artificielle et Data Science