架构
模型上下文协议 (MCP) 遵循客户端-主机-服务器架构,其中每个 主机可以运行多个客户端实例。这种架构使用户能够跨应用程序集成 AI 功能,同时保持明确的安全边界并隔离关注点。MCP 基于 JSON-RPC 构建,提供专注于 客户端和服务器之间上下文交换和采样协调的有状态会话协议。
核心组件
graph LR subgraph "应用程序主机进程" H[主机] C1[客户端 1] C2[客户端 2] C3[客户端 3] H --> C1 H --> C2 H --> C3 end subgraph "本地机器" S1[服务器 1
文件和Git] S2[服务器 2
数据库] R1[("本地
资源 A")] R2[("本地
资源 B")] C1 --> S1 C2 --> S2 S1 <--> R1 S2 <--> R2 end subgraph "互联网" S3[服务器 3
外部 API] R3[("远程
资源 C")] C3 --> S3 S3 <--> R3 end
主机
主机进程充当容器和协调器:
- 创建和管理多个客户端实例
- 控制客户端连接权限和生命周期
- 执行安全策略和同意要求
- 处理用户授权决策
- 协调 AI/LLM 集成和采样
- 管理跨客户端的上下文聚合
客户端
每个客户端由主机创建并维护隔离的服务器连接:
- 为每个服务器建立一个有状态会话
- 处理协议协商和能力交换
- 双向路由协议消息
- 管理订阅和通知
- 维护服务器之间的安全边界
主机应用程序创建和管理多个客户端,每个客户端与特定服务器具有 1:1 关系。
服务器
服务器提供专业的上下文和能力:
- 通过 MCP 原语公开资源、工具和提示
- 独立运行,职责集中
- 通过客户端接口请求采样
- 必须尊重安全约束
- 可以是本地进程或远程服务
设计原则
MCP 基于几个关键设计原则,这些原则指导其架构和实现:
服务器应该非常容易构建
- 主机应用程序处理复杂的编排责任
- 服务器专注于具体、明确定义的功能
- 简单接口最小化实现开销
- 明确分离使代码可维护
服务器应该高度可组合
- 每个服务器独立提供集中功能
- 多个服务器可以无缝组合
- 共享协议实现互操作性
- 模块化设计支持可扩展性
服务器不应能够读取整个对话,也不应"看到"其他服务器
- 服务器只接收必要的上下文信息
- 完整对话历史保留在主机
- 每个服务器连接保持隔离
- 跨服务器交互由主机控制
- 主机进程执行安全边界
功能可以逐步添加到服务器和客户端
- 核心协议提供最小所需功能
- 可以根据需要协商额外能力
- 服务器和客户端独立发展
- 协议设计为未来可扩展
- 保持向后兼容性
消息类型
MCP 定义了基于 JSON-RPC 2.0 的三种核心消息类型:
- 请求:双向消息,带有方法和参数,期望响应
- 响应:成功结果或与特定请求 ID 匹配的错误
- 通知:不需要响应的单向消息
每种消息类型遵循 JSON-RPC 2.0 规范的结构和传递语义。
能力协商
模型上下文协议使用基于能力的协商系统,客户端和服务器在初始化期间明确声明其支持的功能。能力决定了会话期间可用的协议功能和原语。
- 服务器声明资源订阅、工具支持和提示模板等能力
- 客户端声明采样支持和通知处理等能力
- 双方必须在整个会话中尊重已声明的能力
- 可以通过协议扩展协商额外能力
sequenceDiagram participant Host participant Client participant Server Host->>+Client: 初始化客户端 Client->>+Server: 使用能力初始化会话 Server-->>Client: 响应支持的能力 Note over Host,Server: 具有协商功能的活动会话 loop 客户端请求 Host->>Client: 用户或模型发起的操作 Client->>Server: 请求(工具/资源) Server-->>Client: 响应 Client-->>Host: 更新UI或响应模型 end loop 服务器请求 Server->>Client: 请求(采样) Client->>Host: 转发到AI Host-->>Client: AI响应 Client-->>Server: 响应 end loop 通知 Server--)Client: 资源更新 Client--)Server: 状态变化 end Host->>Client: 终止 Client->>-Server: 结束会话 deactivate Server
每种能力都会在会话期间解锁特定的协议功能。例如:
这种能力协商确保客户端和服务器对支持的功能有清晰的理解,同时保持协议可扩展性。