Anthropic推出模型上下文协议 (MCP)


这是Anthropic 一直在研究的一个开放标准,它解决了 LLM 应用程序的一个核心难题 - 将它们连接到您的数据。MCP 提供了一个协议来连接所有数据源。

如今,每个开发人员都需要编写自定义代码,以便将他们的 LLM 应用程序与数据源连接起来。 MCP 通过一个用于共享资源、工具和提示的标准协议解决了这一问题。

案例:
Claude 可直接连接到 GitHub、创建新 repo 并通过简单的 MCP 集成发布 PR。 一旦在 Claude 桌面中设置了 MCP,构建此集成只需不到一个小时的时间。

客户端是 Claude Desktop、IDE 或人工智能工具等应用程序。服务器是暴露数据源的轻型适配器。


MCP 功能强大的部分原因在于:
它可以通过相同的协议处理本地资源(数据库、文件、服务)和远程资源(API,如 Slack 或 GitHub)。

MCP 服务器共享的不仅仅是数据。除了资源(文件、文档、数据)外,它们还可以公开:

  • - 工具(API 集成、操作)
  • - 提示(模板化交互)

安全内置于协议中:
服务器控制自己的资源,无需与 LLM 提供商共享 API 密钥,而且系统边界清晰。

正在构建具有企业级认证的远程服务器支持,因此团队可以在整个组织内安全地共享上下文源。

愿景:

  • 希望构建一个世界,在这个世界中,人工智能通过一个单一、优雅的协议连接到任何数据源--MCP 是通用翻译器。
  • 正在构建MCP作为LLM集成的开放标准。构建自己的服务器,为协议做出贡献,并帮助塑造人工智能集成的未来。

设置:
只需不到 5 分钟即可开始使用 MCP
已为 GitHub、Slack、SQL 数据库、本地文件、搜索引擎等构建了服务器。 安装 Claude Desktop 应用程序,并按照逐步指导连接你的第一个服务器:https://modelcontextprotocol.io/quickstart

总结
Anthropic 宣布开源模型上下文协议 (MCP),这是一项旨在增强 AI 助手与各种数据系统之间连接的新标准。

MCP 的关键组件

  1. 通用标准:MCP 在数据源和 AI 工具之间实现安全的双向连接,允许开发人员通过 MCP 服务器公开其数据,或者创建连接到这些服务器的 AI 应用程序(MCP 客户端)。
  2. 开发人员资源:发布内容包括:
    • MCP 规范和软件开发工具包 (SDK)。
    • Claude Desktop 应用程序内提供本地 MCP 服务器支持。
    • MCP 服务器的开源存储库。
  • 预构建服务器:Anthropic 为 Google Drive、Slack、GitHub、Git、Postgres 和 Puppeteer 等流行平台提供预构建的 MCP 服务器,允许组织快速将其数据集与 AI 工具集成。

    采用和影响

    • Block 和 Apollo 等早期采用者已将 MCP 集成到他们的系统中。
    • 开发编码工具的公司(例如 Zed 和 Replit)也在探索 MCP,以改进 AI 代理在编码任务中检索信息和理解上下文的方式。
    这种集成旨在用更少的尝试生成更细致的代码。