模型提供商
OpenClaw 可以使用许多 LLM 提供商。选择一个提供商,进行身份验证,然后设置默认模型为 provider/model。
寻找聊天频道文档(WhatsApp/Telegram/Discord/Slack/Mattermost(插件)/等)?请参阅频道。
亮点:Venice(Venice AI)
Venice 是我们推荐的隐私优先推理 Venice AI 设置,可选择使用 Opus 处理困难任务。
- 默认:
venice/llama-3.3-70b - 整体最佳:
venice/claude-opus-45(Opus 仍然是最强的)
请参阅 Venice AI。
快速开始
- 与提供商进行身份验证(通常通过
openclaw onboard)。 - 设置默认模型:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
提供商文档
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- Qwen(OAuth)
- OpenRouter
- LiteLLM(统一网关)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- Mistral
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM 模型
- MiniMax
- Venice(Venice AI,注重隐私)
- Hugging Face(推理)
- Ollama(本地模型)
- vLLM(本地模型)
- Qianfan
- NVIDIA
转录提供商
社区工具
- Claude Max API Proxy - 将 Claude Max/Pro 订阅用作 OpenAI 兼容 API 端点
有关完整的提供商目录(xAI、Groq、Mistral 等)和高级配置,请参阅模型提供商。
选择提供商
选择模型提供商时,请考虑:
- 隐私:某些提供商更注重隐私
- 定价:不同提供商的定价差异很大
- 模型能力:某些模型在特定任务上表现更好
- 可用性:某些提供商在特定地区可用
配置
设置提供商
{
models: {
providers: {
openai: { key: "sk-..." },
anthropic: { key: "sk-ant-..." },
},
},
}
设置默认模型
{
agents: {
defaults: {
model: {
primary: "anthropic/claude-opus-4-6",
},
},
},
}
模型回退
{
agents: {
defaults: {
model: {
primary: "anthropic/claude-opus-4-6",
fallbacks: ["openai/gpt-4o", "anthropic/claude-sonnet-4-5"],
},
},
},
}
故障排除
身份验证失败
- 检查 API 密钥是否正确
- 确认提供商状态
- 验证网络连接
模型不可用
- 检查模型名称是否正确
- 确认您已获得该模型的访问权限
速率限制
- 检查提供商速率限制
- 考虑使用回退模型