pathdoc - stock.adobe.com
Outillage des agents IA : le standard voulu par Anthropic interroge
Le protocole de contexte de modèle pensé par Anthropic doit aider les développeurs à relier les données et les outils aux assistants IA pouvant être déployés sur ordinateur ou sur mobile. Certains s’inquiètent concernant le sort des données des utilisateurs et se demandent si un seul fournisseur devrait créer un tel standard.
Le rival d’OpenAI a présenté le 25 novembre Model Context Protocol ou MCP (protocole de contexte de modèle). MCP correspond à un « standard » ouvert universel (sous licence MIT) pour connecter « sans couture » les systèmes d’IA aux sources de données et aux outils tiers.
Il s’agit d’une architecture client-serveur. Elle fait le lien entre une application – ici nommée un Hôte – qui renferme un client chargé de maintenir la connexion avec des serveurs. Ces serveurs contiennent le contexte : une base de données de documents vectorisés, des outils, ou encore des prompts. L’Hôte permet de se connecter à un grand modèle de langage distant et d’enrichir ses réponses avec des données spécifiques ou lui faire exécuter une tâche via les éléments disponibles depuis les serveurs.
Dans le cas d’Anthropic l’application n’est autre que Claude Desktop, un client permettant d’appeler ses LLM.
Les trois principaux composants de MCP sont la spécification de connexion, des SDK TypeSript et Python, la prise en charge des serveurs MCP par Claude Desktop et le code source des serveurs de base.
La couche de transport entre le client et les serveurs peut s’appuyer sur les protocoles Stdio et SSE (HTTP via Server Send Events). Les appels sont réalisés à l’aide du protocole d’échange de messages JSON RPC 2.0.
Pour l’instant les tutoriels disponibles sont valables pour macOS. L’un d’eux explique comment créer un assistant capable de chercher des informations météorologiques à travers l’API d’OpenWeather. Un autre détaille la manière d’héberger une base de données sur un serveur qui expose des « ressources » (des fichiers textes encodés en UTF-8, dont des documents JSON, XML, des logs ou des binaires : PDF, fichiers audio, images, vidéo, etc.) aux clients en lien avec le LLM.
Anthropic précise que MCP est un logiciel libre et qu’il a pour but d’aider les modèles de fondation à produire de meilleures réponses. Dans la documentation du projet, l’éditeur évoque la personnalisation d’un IDE, d’un chatbot ou encore d’un flux de travail, propulsé à l’IA générative. De manière plus pratique, il s’agit de fournir aux développeurs une méthode unique pour interfacer un LLM à de multiples outils, au lieu de bâtir des connexions spécifiques.
Aussi, un serveur peut être déployé sur la même machine que l’hôte, ce qui permet à l’application d’IA générative de manipuler les fonctions d’un ordinateur en sus de se connecter à un système exposé sur le Web. Cela semble être la base de la fonction « computer use », présentée le mois dernier.
L’introduction de MCP par Anthropic intervient alors que l’IA agentique continue de gagner du terrain sur le marché de l’IA, et que de plus en plus d’éditeurs introduisent des technologies d’agents d’IA autonomes et semi-autonomes.
Les éditeurs manquent encore à l’appel
Toutefois, selon Mark Beccue, analyste au sein de l’Enterprise Strategy Group de TechTarget [propriétaire du MagIT], l’introduction d’un standard n’est pas quelque chose qu’un fournisseur isolé peut faire.
« Un standard se définit lorsque la communauté s’accorde collectivement sur une méthode commune, dans un esprit collaboratif », explique Mark Beccue. « Ils [les ingénieurs d’Anthropic] ont ouvert le code, mais ils sont les seuls à en parler. Je ne suis pas sûr que cela soit viable ».
Anthropic pourrait avoir besoin d’entamer une conversation avec d’autres éditeurs sur ce standard.
Toutefois, cela serait préférable si elle émanait d’un groupe tel que l’AI Alliance, qui a été créée par IBM, Meta et d’autres fournisseurs d’IA, pense l’analyste. En effet, la décision serait prise par un groupe de fournisseurs plutôt que par un seul.
Anthropic indique dans un billet de blog qu’il s’engage à faire de MCP un projet open source collaboratif, et qu’il souhaite recevoir des retours et encourage les participations. Et c’est sûrement grâce à l’engouement de la communauté que l’éditeur espère imposer son standard.
Pour l’heure, neuf contributeurs concourent au projet géré par trois ingénieurs chez la startup largement soutenue par Amazon. Le dépôt MCP est tout de même suivi par 1 600 personnes sur GitHub.
La sécurisation des données, une question épineuse
MCP semble utile pour les développeurs qui recherchent un processus simplifié afin de connecter les modèles d’IA à leurs données, selon Sean Ren, professeur agrégé d’informatique à l’Université de Californie du Sud et PDG de Sahara AI, éditeur d’une plateforme mêlant blockchain et IA.
« [Anthropic] vous permet de suivre le protocole pour connecter diverses ressources aux LLM et des outils qui, ensemble, propulsent une application », relate Sean Ren. « C’est un framework ».
Or, Anthropic n’a pas abordé la question de la protection de la vie privée des utilisateurs et de la sécurité des données, nuance-t-il. Il fait remarquer que si MCP est open source, les utilisateurs sont pour l’instant limités aux modèles Claude d’Anthropic.
Sean RenProfesseur agrégé d'informatique à l'Université de Californie du Sud et PDG de Sahara AI
L’on en revient aux problèmes évoqués plus haut : la spécification peut fonctionner avec d’autres LLM, mais pour l’instant aucun autre fournisseur ne s’est manifesté.
« Les entreprises doivent être très prudentes quant à l’utilisation du protocole, parce que vous l’utilisez pour connecter vos données aux modèles d’Anthropic », prévient-il. « Essentiellement, vous leur donnez accès à vos informations, et il n’y a pas de détails clairs sur la façon dont ils vont les protéger, s’ils vont y accéder pour d’autres usages ».
« Contrairement à d’autres laboratoires de recherche en IA, Anthropic n’entraîne pas par défaut ses modèles sur les données de ses clients. Tout ce que les utilisateurs téléchargent ne sera pas utilisé pour entraîner nos LLM », répond un porte-parole d’Anthropic.
« La sécurité est intégrée au protocole – les serveurs contrôlent leurs propres ressources, il n’est pas nécessaire de partager les clés d’API avec les fournisseurs de LLM, et les limites du système sont claires », complète sur X Alex Albert, responsable des relations développeurs chez Anthropic.
« Pour l’instant, MCP n’est supporté que localement – les serveurs doivent fonctionner sur votre propre machine. Mais nous développons la prise en charge des serveurs distants avec une authentification de niveau entreprise, afin que les équipes puissent partager en toute sécurité leurs sources de contexte au sein de leur organisation », promet-il.
Il s’agit d’un moyen d’attirer les développeurs afin d’élargir la portée de l’écosystème d’Anthropic. En face, OpenAI a effectué une partie de ce travail avec son API propriétaire Assistant – qui remplit des fonctions similaires. Le concurrent d’Anthropic a également lancé en bêta la possibilité d’interagir avec les applications installées sur un ordinateur avec ChatGPT Desktop. Meta travaille, lui, à la création de spécifications pour créer des applications agentiques à travers sa pile d’outils Llama Stack. Celle-ci pourra être déployée sur site ou dans le cloud d’Amazon. Lors de Microsoft Ignite 2024, le géant du cloud évoquait le recensement de plus de 70 000 outils et frameworks liés à la gestion de données et de l’IA. Reste à savoir si MCP sortira du lot.