模型 Providers
OpenClaw 可以使用许多 LLM providers。选择一个,进行认证,然后将默认模型设置为 provider/model。
亮点:Venice(Venice AI)
Venice 是我们推荐的隐私优先推理 Venice AI 设置,可以选择使用 Opus 来处理最难的任务。
- 默认:
venice/llama-3.3-70b - 最佳整体:
venice/claude-opus-45(Opulus 仍然是最强的)
参见 Venice AI。
快速开始(两个步骤)
- 通过 provider 进行认证(通常通过
openclaw onboard)。 - 设置默认模型:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
支持的 providers(初学者设置)
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- Mistral
- Synthetic
- OpenCode Zen
- Z.AI
- GLM 模型
- MiniMax
- Venice(Venice AI)
- Amazon Bedrock
- Qianfan
有关完整的 provider 目录(xAI、Groq、Mistral 等)和高级配置,参见模型 providers。