这是Anthropic 一直在研究的一个开放标准,它解决了 LLM 应用程序的一个核心难题 - 将它们连接到您的数据。MCP 提供了一个协议来连接所有数据源。
如今,每个开发人员都需要编写自定义代码,以便将他们的 LLM 应用程序与数据源连接起来。 MCP 通过一个用于共享资源、工具和提示的标准协议解决了这一问题。
案例:
Claude 可直接连接到 GitHub、创建新 repo 并通过简单的 MCP 集成发布 PR。 一旦在 Claude 桌面中设置了 MCP,构建此集成只需不到一个小时的时间。
客户端是 Claude Desktop、IDE 或人工智能工具等应用程序。服务器是暴露数据源的轻型适配器。
MCP 功能强大的部分原因在于:
它可以通过相同的协议处理本地资源(数据库、文件、服务)和远程资源(API,如 Slack 或 GitHub)。
MCP 服务器共享的不仅仅是数据。除了资源(文件、文档、数据)外,它们还可以公开:
- - 工具(API 集成、操作)
- - 提示(模板化交互)
安全内置于协议中:
服务器控制自己的资源,无需与 LLM 提供商共享 API 密钥,而且系统边界清晰。
正在构建具有企业级认证的远程服务器支持,因此团队可以在整个组织内安全地共享上下文源。
愿景:
- 希望构建一个世界,在这个世界中,人工智能通过一个单一、优雅的协议连接到任何数据源--MCP 是通用翻译器。
- 正在构建MCP作为LLM集成的开放标准。构建自己的服务器,为协议做出贡献,并帮助塑造人工智能集成的未来。
设置:
只需不到 5 分钟即可开始使用 MCP
已为 GitHub、Slack、SQL 数据库、本地文件、搜索引擎等构建了服务器。 安装 Claude Desktop 应用程序,并按照逐步指导连接你的第一个服务器:https://modelcontextprotocol.io/quickstart
总结
Anthropic 宣布开源模型上下文协议 (MCP),这是一项旨在增强 AI 助手与各种数据系统之间连接的新标准。
MCP 的关键组件
- 通用标准:MCP 在数据源和 AI 工具之间实现安全的双向连接,允许开发人员通过 MCP 服务器公开其数据,或者创建连接到这些服务器的 AI 应用程序(MCP 客户端)。
- 开发人员资源:发布内容包括:
- MCP 规范和软件开发工具包 (SDK)。
- Claude Desktop 应用程序内提供本地 MCP 服务器支持。
- MCP 服务器的开源存储库。
采用和影响
- Block 和 Apollo 等早期采用者已将 MCP 集成到他们的系统中。
- 开发编码工具的公司(例如 Zed 和 Replit)也在探索 MCP,以改进 AI 代理在编码任务中检索信息和理解上下文的方式。