Anthropic发布用于LLM应用集成的模型上下文协议规范

Anthropic 发布 Model Context Protocol (MCP)

Anthropic 最近发布了 Model Context Protocol (MCP),这是一个开放标准,旨在解决将不同的大型语言模型(LLMs)与各种工具集成的“MxN”问题。MCP 提供了一个标准协议,供 LLM 供应商和工具开发者遵循,从而简化集成过程。

MCP 的架构与实现

MCP 采用客户端-服务器架构。AI 应用程序(如 Claude for Desktop 或 IDE)通过 MCP 客户端连接到 MCP 服务器,这些服务器前端连接数据源或工具。为了帮助开发者快速上手,Anthropic 提供了 PythonTypeScript 的 SDK,以及一个不断增长的参考实现和社区贡献的服务器列表。

MCP 的核心概念

MCP 定义了一组 JSON-RPC 消息,用于客户端和服务器之间的通信,这些消息实现了称为原语的构建块。服务器支持三个原语:

  1. Prompts(提示):用于提供指令或模板。
  2. Resources(资源):结构化数据,可以包含在 LLM 提示上下文中。
  3. Tools(工具):可执行函数,LLM 可以调用这些函数来检索信息或执行操作。

客户端支持两个原语:

  1. Roots(根):提供对客户端文件的访问权限。
  2. Sampling(采样):允许服务器从客户端 LLM 请求“补全”或“生成”。

MCP 的应用示例

Anthropic 提供了多个示例和教程,展示开发者如何使用 MCP。例如,Quickstart 示例展示了如何使用 Claude LLM 获取天气预报和警告。开发者可以创建一个 Python 程序来实现 MCP 服务器,该程序暴露一个封装了公共天气数据服务调用的 Tool 原语。然后,开发者可以通过 Claude for Desktop 应用(内置 MCP 客户端)调用 MCP 服务器以获取天气数据。

社区反馈与未来展望

Anthropic 开发者 Justin Spahr-Summers 在 Hacker News 上参与了关于 MCP 的讨论。他表示,MCP 旨在解决“MxN”问题,并强调 MCP 中的“提示”和“资源”原语在表达服务器功能的不同意图时非常有用。Anthropic 致力于将 MCP 打造为一个协作的开源项目和生态系统,并欢迎开发者的反馈和贡献。

资源与支持

MCP 的规范、文档以及 Python 和 TypeScript 的 SDK 均可在 GitHub 上获取。Anthropic 鼓励开发者参与其中,共同构建上下文感知 AI 的未来。

阅读 25
0 条评论