架构
模型上下文协议(MCP)遵循客户端-宿主-服务器架构,其中每个宿主可以运行多个客户端实例。这种架构使用户能够在应用程序之间集成 AI 功能,同时保持明确的安全边界和关注点隔离。基于 JSON-RPC,MCP 提供了一个有状态的会话协议,专注于客户端和服务器之间的上下文交换和采样协调。
核心组件
graph LR subgraph "应用程序宿主进程" H[宿主] C1[客户端 1] C2[客户端 2] C3[客户端 3] H --> C1 H --> C2 H --> C3 end subgraph "本地机器" S1[服务器 1
文件和 Git] S2[服务器 2
数据库] R1[("本地
资源 A")] R2[("本地
资源 B")] C1 --> S1 C2 --> S2 S1 <--> R1 S2 <--> R2 end subgraph "互联网" S3[服务器 3
外部 API] R3[("远程
资源 C")] C3 --> S3 S3 <--> R3 end
宿主
宿主进程充当容器和协调器:
- 创建和管理多个客户端实例
- 控制客户端连接权限和生命周期
- 执行安全策略和同意要求
- 处理用户授权决策
- 协调 AI/LLM 集成和采样
- 管理跨客户端的上下文聚合
客户端
每个客户端由宿主创建,并维护一个隔离的服务器连接:
- 为每个服务器建立一个有状态会话
- 处理协议协商和能力交换
- 双向路由协议消息
- 管理订阅和通知
- 维护服务器之间的安全边界
一个宿主应用程序创建和管理多个客户端,每个客户端与特定的服务器有 1:1 的关系。
服务器
服务器提供专门的上下文和功能:
- 通过 MCP 原语公开资源、工具和提示
- 独立运行,具有专注的职责
- 通过客户端接口请求采样
- 必须尊重安全约束
- 可以是本地进程或远程服务
设计原则
MCP 基于几个关键设计原则,这些原则指导其架构和实现:
服务器应该非常容易构建
- 宿主应用程序处理复杂的编排职责
- 服务器专注于特定的、明确定义的功能
- 简单的接口最小化实现开销
- 清晰的分离使代码可维护
服务器应该高度可组合
- 每个服务器在隔离中提供专注的功能
- 多个服务器可以无缝组合
- 共享协议实现互操作性
- 模块化设计支持可扩展性
服务器不应该能够读取整个对话,也不应"看到"其他服务器
- 服务器只接收必要的上下文信息
- 完整的对话历史保留在宿主
- 每个服务器连接保持隔离
- 跨服务器交互由宿主控制
- 宿主进程执行安全边界
可以逐步向服务器和客户端添加功能
- 核心协议提供最小的必需功能
- 根据需要可以协商额外的功能
- 服务器和客户端独立演化
- 协议为未来扩展性而设计
- 保持向后兼容性
消息类型
MCP 基于 JSON-RPC 2.0 定义了三种核心消息类型:
- 请求:双向消息,具有期待响应的方法和参数
- 响应:匹配特定请求 ID 的成功结果或错误
- 通知:不需要响应的单向消息
每种消息类型遵循 JSON-RPC 2.0 规范的结构和传递语义。
能力协商
模型上下文协议使用基于能力的协商系统,客户端和服务器在初始化期间明确声明它们支持的功能。能力决定了会话期间可用的协议功能和原语。
- 服务器声明资源订阅、工具支持和提示模板等能力
- 客户端声明采样支持和通知处理等能力
- 双方必须在整个会话期间尊重声明的能力
- 可以通过协议扩展协商额外的能力
sequenceDiagram participant Host participant Client participant Server Host->>+Client: 初始化客户端 Client->>+Server: 用能力初始化会话 Server-->>Client: 响应支持的能力 Note over Host,Server: 具有协商功能的活动会话 loop 客户端请求 Host->>Client: 用户或模型发起的操作 Client->>Server: 请求(工具/资源) Server-->>Client: 响应 Client-->>Host: 更新UI或响应模型 end loop 服务器请求 Server->>Client: 请求(采样) Client->>Host: 转发到AI Host-->>Client: AI响应 Client-->>Server: 响应 end loop 通知 Server--)Client: 资源更新 Client--)Server: 状态变更 end Host->>Client: 终止 Client->>-Server: 结束会话 deactivate Server
每个能力在会话期间解锁特定的协议功能。例如:
这种能力协商确保客户端和服务器对支持的功能有清晰的理解,同时保持协议的可扩展性。