
OpenAI a annoncé la prise en charge de la norme MCP d'Anthropic pour améliorer la qualité des réponses des assistants d'IA. MCP permet aux modèles d'IA d'accéder à des informations provenant de diverses sources de données, créant ainsi une connexion bidirectionnelle. De nombreuses entreprises ont rejoint l'initiative MCP, favorisant la croissance de cette norme ouverte.
Début mars 2025, OpenAI a lancé de nouveaux outils pour les développeurs qui les aideront à créer des agents d'IA avancés. Les nouvelles offres comprennent une nouvelle API Responses qui aide à construire des agents IA ; des outils intégrés tels que la recherche sur le web, la recherche de fichiers et l'utilisation d'ordinateurs ; un nouveau SDK Agents qui orchestre des flux de travail à agent unique et à agents multiples ; et des outils d'observabilité intégrés qui aident les utilisateurs à tracer et à inspecter le développement du flux de travail de l'agent.
Récemment, Sam Altman, PDG d'OpenAI, a déclaré qu'OpenAI intégrera le Model context protocol MCP dans plusieurs de ses produits, y compris l'application de bureau ChatGPT. Il a noté : "La réponse à MCP a été fantastique, et nous sommes ravis d'ajouter son support dans nos produits." Il a également révélé que MCP est actuellement disponible dans le SDK Agents et qu'il sera étendu à l'application de bureau ChatGPT et à l'API de réponse à l'avenir.
La fonction principale de MCP est de permettre aux modèles d'extraire des informations de diverses sources de données, telles que des outils commerciaux, des logiciels et des référentiels de contenu, afin de mieux accomplir les tâches. Ce protocole offre aux développeurs un moyen d'établir une connexion bidirectionnelle, leur permettant de relier des sources de données à des applications d'IA telles que les chatbots. Les développeurs peuvent fournir des données par l'intermédiaire de "serveurs MCP" et créer des "clients MCP", tels que des applications et des flux de travail, pour se connecter à ces serveurs en cas de besoin.
Depuis qu'Anthropic a ouvert MCP, plusieurs entreprises, dont Block, Apollo, Replit, Codeium et Sourcegraph, ont ajouté la prise en charge de MCP à leurs plateformes. Mike Krieger, Chief Product Officer d'Anthropic, a déclaré : "Je suis ravi de voir l'élan de MCP s'étendre à OpenAI - bienvenue à bord !". Il a également souligné que MCP est devenu un standard ouvert florissant avec des milliers d'intégrations, et que les grands modèles de langage réalisent leur plein potentiel lorsqu'ils sont connectés à des données et des logiciels existants.
Voici les détails partagés par OpenAI :
Model Context Protocol (MCP)
Le Model Context Protocol (MCP) est un moyen de fournir des outils et un contexte au LLM. Extrait de la documentation MCP : "MCP est un protocole ouvert qui standardise la manière dont les applications fournissent un contexte aux LLM. Pensez à MCP comme à un port USB-C pour les applications d'IA. Tout comme l'USB-C fournit un moyen standardisé de connecter vos appareils à divers périphériques et accessoires, MCP fournit un moyen standardisé de connecter les modèles d'IA à différentes sources de données et outils."
Le SDK Agents prend en charge le MCP. Cela vous permet d'utiliser une large gamme de serveurs MCP pour fournir des outils à vos agents.
Serveurs MCP
Actuellement, la spécification MCP définit deux types de serveurs, en fonction du mécanisme de transport qu'ils utilisent :
- Les serveurs stdio s'exécutent en tant que sous-processus de votre application. Vous pouvez considérer qu'ils s'exécutent "localement".
- Les serveurs HTTP over SSE s'exécutent à distance. Vous vous y connectez via une URL.
Vous pouvez utiliser les classes MCPServerStdio et MCPServerSse pour vous connecter à ces serveurs.
Par exemple, voici comment utiliser le serveur de système de fichiers MCP officiel.
Code : | Sélectionner tout |
1 2 3 4 5 6 7 | async with MCPServerStdio( params={ "command": "npx", "args": ["-y", "@modelcontextprotocol/server-filesystem", samples_dir], } ) as server: tools = await server.list_tools() |
Utilisation des serveurs MCP
Les serveurs MCP peuvent être ajoutés aux agents. Le SDK Agents appellera list_tools() sur les serveurs MCP à chaque fois que l'agent est exécuté. Cela permet au LLM de connaître les outils du serveur MCP. Lorsque le LLM appelle un outil d'un serveur MCP, le SDK appelle call_tool() sur ce serveur.
Code : | Sélectionner tout |
1 2 3 4 5 | agent=Agent( name="Assistant", instructions="Use the tools to achieve the task", mcp_servers=[mcp_server_1, mcp_server_2] ) |
Mise en cache
Chaque fois qu'un agent s'exécute, il appelle list_tools() sur le serveur MCP. Cela peut entraîner des problèmes de latence, en particulier si le serveur est un serveur distant. Pour mettre automatiquement en cache la liste des outils, vous pouvez passer cache_tools_list=True à MCPServerStdio et MCPServerSse. Vous ne devez le faire que si vous êtes certain que la liste des outils ne changera pas.
Si vous souhaitez invalider le cache, vous pouvez appeler invalidate_tools_cache() sur les serveurs.
Traçage
Le traçage capture automatiquement les opérations MCP, y compris :
- Les appels au serveur MCP pour lister les outils
- Les informations relatives à MCP sur les appels de fonction
Source : OpenAI
Et vous ?


Voir aussi :



Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.