常用应用集成教程
OpenClaw 配置教程
学习如何通过多种方式将ZestAI API 集成到 OpenClaw 中。
OpenClaw 是一款基于 Node.js 的全能型 AI 助手框架。通过接入我们的 API,您可以快速调用市面上的顶级模型进行对话和自动化任务。
获取 API 凭证
在开始配置前,请确保:
多种配置方式
根据您的部署环境,选择最适合的接入方式:
方式一:本地部署
这是最稳定的配置方式,适合在本地或服务器直接运行 OpenClaw 的场景。
安装完成openclaw之后,执行命令 openclaw onboard --install-daemon 通过向导即可配置API。
选择Custom Provider
删除默认的地址,然后输入https://api.zestai.pro/v1
输入在ZestAI平台创建的令牌。

选择OpenAI-compatible
输入我们提供的模型名称,访问模型广场可以查看我们提供的所有模型名,直接复制名称到这里面即可,例如gemini-3-flash-preview
后面的Endpoint ID和Model alias保持默认,直接回车即可。
- 输入模型后OpenClaw会进行验证测试请求,验证前注意不要开梯子,开了梯子可能会影响调用,导致验证失败。
- 配置成功后,如果对话一直不回复,请排查base url是否设置为
https://api.zestai.pro/v1。 - 如果之前有配置过其他Api的话,建议删除掉,另外重启openclaw网关才会生效。
方式二:腾讯云部署
安装好openclaw的服务后,直接在应用管理中配置自定义模型。

将下面的配置项复制到json输入框中,并替换令牌和您要用的实际模型名即可。
{
"provider": "mkeai",
"base_url": "https://api.zestai.pro/v1",
"api": "openai-completions",
"api_key": "你的API 令牌",
"model": {
"id": "gemini-2.5-pro",
"name": "gemini-2.5-pro"
}
}