AI文档
MCP 服务器
通过 MCP 服务器将 ZestAI 文档连接到您的 AI 工具。
关于 MCP 服务器
模型上下文协议 (MCP) 是一种开放协议,用于在 AI 应用程序和外部服务之间创建标准化连接。
ZestAI 提供了内置的 MCP 服务器,让您可以在任何 MCP 客户端(如 Claude、Cursor、VS Code 等)中直接访问 ZestAI 文档,让 AI 助手能够实时获取最新的 API 文档和使用指南。
MCP 服务器的工作原理
当 MCP 服务器连接到 AI 工具时,LLM 可以在生成响应时决定使用文档工具:
- LLM 可以在生成响应时主动搜索文档,而不仅仅是在被明确要求时。
- LLM 根据对话上下文和文档相关性来决定何时使用工具。
- 每次工具调用都发生在生成过程中,使 LLM 能够将文档中的实时信息整合到其响应中。
例如,如果您询问一个关于 API 使用的问题,AI 助手可以自动搜索 ZestAI 文档并将相关信息包含在响应中。
访问 MCP 服务器
ZestAI 的 MCP 服务器地址为:
https://docs.zestai.pro/mcp
内置工具
ZestAI MCP 服务器提供两个工具,让 AI 助手能够发现和阅读文档:
list-pages
列出所有文档页面的标题、路径和描述。AI 助手应首先调用此工具来发现可用内容。
| 参数 | 类型 | 描述 |
|---|---|---|
locale | string(可选) | 按语言筛选页面 |
get-page
获取特定文档页面的完整 Markdown 内容。
| 参数 | 类型 | 描述 |
|---|---|---|
path | string(必填) | 页面路径(例如:/getting-started/installation) |
在 AI 工具中设置
MCP 服务器使用 HTTP 传输,可以在不同的 AI 助手中安装。
Claude Code
使用 CLI 命令添加服务器:
claude mcp add --transport http zestai-docs https://docs.zestai.pro/mcp
Cursor
或者手动在项目根目录创建/更新 .cursor/mcp.json:
.cursor/mcp.json
{
"mcpServers": {
"zestai-docs": {
"type": "http",
"url": "https://docs.zestai.pro/mcp"
}
}
}
Visual Studio Code
确保已安装 GitHub Copilot 和 GitHub Copilot Chat 扩展。
或者手动创建/更新 .vscode/mcp.json 文件:
.vscode/mcp.json
{
"servers": {
"zestai-docs": {
"type": "http",
"url": "https://docs.zestai.pro/mcp"
}
}
}
Windsurf
- 打开 Windsurf,进入 设置 > Windsurf 设置 > Cascade
- 点击 管理 MCP 按钮,然后选择 查看原始配置 选项
- 添加以下配置:
.codeium/windsurf/mcp_config.json
{
"mcpServers": {
"zestai-docs": {
"type": "http",
"url": "https://docs.zestai.pro/mcp"
}
}
}
Zed
- 打开 Zed,进入 设置 > 打开设置
- 导航到 JSON 设置文件
- 添加以下上下文服务器配置:
.config/zed/settings.json
{
"context_servers": {
"zestai-docs": {
"source": "custom",
"command": "npx",
"args": ["mcp-remote", "https://docs.zestai.pro/mcp"],
"env": {}
}
}
}
使用建议
配置完成后,您可以:
- 在对话中直接询问关于 ZestAI API 的问题,AI 助手会自动查询相关文档
- 让 AI 助手帮您生成符合 ZestAI API 规范的代码
- 询问关于模型、定价、认证等任何文档中涵盖的内容
配置 MCP 服务器后,建议重启 AI 工具以确保配置生效。