IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI annonce la prise en charge de la norme MCP (Model Context Protocol) d'Anthropic dans son SDK Agents
Afin d'améliorer la précision et la pertinence des réponses des assistants d'IA

Le , par Jade Emy

6PARTAGES

7  0 
OpenAI annonce la prise en charge de la norme MCP (Model Context Protocol) d'Anthropic dans son SDK Agents afin d'améliorer la précision et la pertinence des réponses des assistants d'IA

OpenAI a annoncé la prise en charge de la norme MCP d'Anthropic pour améliorer la qualité des réponses des assistants d'IA. MCP permet aux modèles d'IA d'accéder à des informations provenant de diverses sources de données, créant ainsi une connexion bidirectionnelle. De nombreuses entreprises ont rejoint l'initiative MCP, favorisant la croissance de cette norme ouverte.

Début mars 2025, OpenAI a lancé de nouveaux outils pour les développeurs qui les aideront à créer des agents d'IA avancés. Les nouvelles offres comprennent une nouvelle API Responses qui aide à construire des agents IA ; des outils intégrés tels que la recherche sur le web, la recherche de fichiers et l'utilisation d'ordinateurs ; un nouveau SDK Agents qui orchestre des flux de travail à agent unique et à agents multiples ; et des outils d'observabilité intégrés qui aident les utilisateurs à tracer et à inspecter le développement du flux de travail de l'agent.

Récemment, Sam Altman, PDG d'OpenAI, a déclaré qu'OpenAI intégrera le Model context protocol MCP dans plusieurs de ses produits, y compris l'application de bureau ChatGPT. Il a noté : "La réponse à MCP a été fantastique, et nous sommes ravis d'ajouter son support dans nos produits." Il a également révélé que MCP est actuellement disponible dans le SDK Agents et qu'il sera étendu à l'application de bureau ChatGPT et à l'API de réponse à l'avenir.


La fonction principale de MCP est de permettre aux modèles d'extraire des informations de diverses sources de données, telles que des outils commerciaux, des logiciels et des référentiels de contenu, afin de mieux accomplir les tâches. Ce protocole offre aux développeurs un moyen d'établir une connexion bidirectionnelle, leur permettant de relier des sources de données à des applications d'IA telles que les chatbots. Les développeurs peuvent fournir des données par l'intermédiaire de "serveurs MCP" et créer des "clients MCP", tels que des applications et des flux de travail, pour se connecter à ces serveurs en cas de besoin.

Depuis qu'Anthropic a ouvert MCP, plusieurs entreprises, dont Block, Apollo, Replit, Codeium et Sourcegraph, ont ajouté la prise en charge de MCP à leurs plateformes. Mike Krieger, Chief Product Officer d'Anthropic, a déclaré : "Je suis ravi de voir l'élan de MCP s'étendre à OpenAI - bienvenue à bord !". Il a également souligné que MCP est devenu un standard ouvert florissant avec des milliers d'intégrations, et que les grands modèles de langage réalisent leur plein potentiel lorsqu'ils sont connectés à des données et des logiciels existants.


Voici les détails partagés par OpenAI :

Model Context Protocol (MCP)

Le Model Context Protocol (MCP) est un moyen de fournir des outils et un contexte au LLM. Extrait de la documentation MCP : "MCP est un protocole ouvert qui standardise la manière dont les applications fournissent un contexte aux LLM. Pensez à MCP comme à un port USB-C pour les applications d'IA. Tout comme l'USB-C fournit un moyen standardisé de connecter vos appareils à divers périphériques et accessoires, MCP fournit un moyen standardisé de connecter les modèles d'IA à différentes sources de données et outils."

Le SDK Agents prend en charge le MCP. Cela vous permet d'utiliser une large gamme de serveurs MCP pour fournir des outils à vos agents.

Serveurs MCP

Actuellement, la spécification MCP définit deux types de serveurs, en fonction du mécanisme de transport qu'ils utilisent :

  1. Les serveurs stdio s'exécutent en tant que sous-processus de votre application. Vous pouvez considérer qu'ils s'exécutent "localement".
  2. Les serveurs HTTP over SSE s'exécutent à distance. Vous vous y connectez via une URL.

Vous pouvez utiliser les classes MCPServerStdio et MCPServerSse pour vous connecter à ces serveurs.

Par exemple, voici comment utiliser le serveur de système de fichiers MCP officiel.

Code : Sélectionner tout
1
2
3
4
5
6
7
async with MCPServerStdio(
    params={
        "command": "npx",
        "args": ["-y", "@modelcontextprotocol/server-filesystem", samples_dir],
    }
) as server:
    tools = await server.list_tools()


Utilisation des serveurs MCP

Les serveurs MCP peuvent être ajoutés aux agents. Le SDK Agents appellera list_tools() sur les serveurs MCP à chaque fois que l'agent est exécuté. Cela permet au LLM de connaître les outils du serveur MCP. Lorsque le LLM appelle un outil d'un serveur MCP, le SDK appelle call_tool() sur ce serveur.

Code : Sélectionner tout
1
2
3
4
5
agent=Agent(
    name="Assistant",
    instructions="Use the tools to achieve the task",
    mcp_servers=[mcp_server_1, mcp_server_2]
)


Mise en cache

Chaque fois qu'un agent s'exécute, il appelle list_tools() sur le serveur MCP. Cela peut entraîner des problèmes de latence, en particulier si le serveur est un serveur distant. Pour mettre automatiquement en cache la liste des outils, vous pouvez passer cache_tools_list=True à MCPServerStdio et MCPServerSse. Vous ne devez le faire que si vous êtes certain que la liste des outils ne changera pas.

Si vous souhaitez invalider le cache, vous pouvez appeler invalidate_tools_cache() sur les serveurs.


Traçage

Le traçage capture automatiquement les opérations MCP, y compris :

  1. Les appels au serveur MCP pour lister les outils
  2. Les informations relatives à MCP sur les appels de fonction



Source : OpenAI

Et vous ?

Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic rend open-source le Model Context Protocol (MCP) pour l'intégration de l'IA avec une connectivité universelle des données pour des applications plus intelligentes, contextuelles et évolutives

OpenAI a publié un aperçu de recherche de son nouvel agent d'IA Operator, qui contrôle votre navigateur pour effectuer des tâches à votre place sur le web

L'IA agentique expliquée : Un cadre philosophique pour comprendre les agents d'IA, par David Barkol
Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de blbird
Membre chevronné https://www.developpez.com
Le 28/03/2025 à 10:21
En gros, c'est juste une API normalisée pour avoir une liste des connexions et fonctions disponibles pour l'IA, que ce soit en web service ou en local.
0  0