第 11 章
12+ Provider 全接入:Anthropic / OpenAI / Google / Bedrock / 本地模型
第11章:12+ Provider 全接入——从 Anthropic 到本地模型的完整配置指南
概述
OpenClaw 原生支持 12 个官方 LLM Provider,并通过插件系统额外支持 30+ 第三方渠道。无论你使用云端顶级模型还是本地部署的开源模型,OpenClaw 都提供统一的配置接口。本章将逐一介绍每个 Provider 的认证方式、配置示例和代表模型推荐。
11.1 模型 ID 格式规范
OpenClaw 使用统一的 provider/model-id 格式来引用所有模型。这一设计让你可以在不同 Provider 之间无缝切换,而无需修改业务逻辑代码。
格式:<provider>/<model-id>
示例:
anthropic/claude-opus-4-6
openai/gpt-5.5
google/gemini-3.1-pro
ollama/llama3.2
deepseek/deepseek-r1
配置文件中的引用示例:
{
"model": "anthropic/claude-sonnet-4-6",
"fallback_model": "openai/gpt-5.4-mini"
}
规范要点
- provider 名称全小写,使用官方注册名
- model-id 与 Provider 官方 API 文档一致
- 本地模型使用
ollama/或lmstudio/前缀
11.2 Anthropic
认证方式
Anthropic 使用 API Key 认证,通过环境变量 ANTHROPIC_API_KEY 传入。
# 设置环境变量
export ANTHROPIC_API_KEY="sk-ant-api03-xxxxxxxxxxxxxxxxxxxxxxxx"
配置示例
{
"providers": {
"anthropic": {
"api_key": "${ANTHROPIC_API_KEY}",
"base_url": "https://api.anthropic.com",
"version": "2023-06-01",
"default_model": "anthropic/claude-sonnet-4-6"
}
}
}
代表模型
| 模型 ID | 特点 | 推荐场景 |
|---|---|---|
anthropic/claude-opus-4-6 |
最强推理,成本最高 | 复杂多步骤任务、代码架构设计 |
anthropic/claude-sonnet-4-6 |
性能与成本平衡 | 日常主力模型、大多数生产场景 |
anthropic/claude-haiku-4-5 |
速度最快,成本最低 | 高频轻量任务、摘要、分类 |
高级配置
{
"providers": {
"anthropic": {
"api_key": "${ANTHROPIC_API_KEY}",
"max_tokens": 8192,
"timeout_seconds": 120,
"extra_headers": {
"anthropic-beta": "interleaved-thinking-2025-05-14"
}
}
}
}
11.3 OpenAI
认证方式
export OPENAI_API_KEY="sk-proj-xxxxxxxxxxxxxxxxxxxxxxxx"
# 可选:指定组织 ID
export OPENAI_ORG_ID="org-xxxxxxxxxxxxxxxx"
配置示例
{
"providers": {
"openai": {
"api_key": "${OPENAI_API_KEY}",
"organization": "${OPENAI_ORG_ID}",
"base_url": "https://api.openai.com/v1",
"default_model": "openai/gpt-5.5"
}
}
}
代表模型
| 模型 ID | 特点 | 推荐场景 |
|---|---|---|
openai/gpt-5.5 |
最强旗舰,多模态 | 高复杂度推理、视觉分析 |
openai/gpt-5.4-mini |
高效经济 | 快速迭代、原型开发 |
openai/o3 |
深度推理链 | 数学/逻辑/科学问题 |
openai/o1 |
推理增强 | 编程竞赛、复杂推导 |
11.4 Google Gemini
认证方式
export GEMINI_API_KEY="AIzaSy-xxxxxxxxxxxxxxxxxxxxxxxx"
配置示例
{
"providers": {
"google": {
"api_key": "${GEMINI_API_KEY}",
"base_url": "https://generativelanguage.googleapis.com/v1beta",
"default_model": "google/gemini-3.1-pro"
}
}
}
代表模型
| 模型 ID | 特点 | 推荐场景 |
|---|---|---|
google/gemini-3.1-pro |
长上下文,多模态 | 大文档分析、视频理解 |
google/gemini-3-flash |
极速响应 | 实时交互、流式输出 |
11.5 Amazon Bedrock
Bedrock 是 AWS 托管的模型服务,认证方式与普通 API Key 不同——使用 AWS 标准凭证体系。
认证方式
方式 A:环境变量(开发环境推荐)
export AWS_ACCESS_KEY_ID="AKIAIOSFODNN7EXAMPLE"
export AWS_SECRET_ACCESS_KEY="wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY"
export AWS_DEFAULT_REGION="us-east-1"
方式 B:AWS Profile(多账号管理推荐)
# ~/.aws/credentials
[openclaw-prod]
aws_access_key_id = AKIAIOSFODNN7EXAMPLE
aws_secret_access_key = wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY
# ~/.aws/config
[profile openclaw-prod]
region = us-east-1
方式 C:IAM Role(生产环境推荐)
# EC2/ECS/Lambda 自动使用实例角色,无需显式配置凭证
配置示例
{
"providers": {
"bedrock": {
"region": "us-east-1",
"profile": "openclaw-prod",
"default_model": "bedrock/anthropic.claude-sonnet-4-6-v1:0"
}
}
}
Bedrock vs 直连 Anthropic 对比
| 维度 | Bedrock | 直连 Anthropic |
|---|---|---|
| 认证 | AWS IAM | API Key |
| 合规 | AWS 合规体系 | Anthropic 合规 |
| 网络 | AWS VPC 内网 | 公网 |
| 计费 | AWS 账单 | Anthropic 账单 |
| 延迟 | 同区低延迟 | 取决于网络 |
11.6 OpenRouter
OpenRouter 作为多 Provider 代理,允许你用单一 API Key 路由到 100+ 模型。
适用场景
- 快速测试不同 Provider 的模型效果
- 统一账单管理(无需维护多个 API Key)
- 访问某些地区无法直接使用的模型
配置示例
{
"providers": {
"openrouter": {
"api_key": "${OPENROUTER_API_KEY}",
"base_url": "https://openrouter.ai/api/v1",
"default_model": "openrouter/anthropic/claude-opus-4-6",
"extra_headers": {
"HTTP-Referer": "https://yourapp.com",
"X-Title": "OpenClaw Agent"
}
}
}
}
模型 ID 格式
OpenRouter 使用双层嵌套格式:
openrouter/<original-provider>/<model-id>
示例:
openrouter/anthropic/claude-opus-4-6
openrouter/openai/gpt-5.5
openrouter/google/gemini-3.1-pro
openrouter/meta-llama/llama-3.1-70b-instruct
11.7 Ollama(本地)
export OLLAMA_BASE_URL="http://localhost:11434"
{
"providers": {
"ollama": {
"base_url": "${OLLAMA_BASE_URL}",
"default_model": "ollama/llama3.2"
}
}
}
详细接入方法见第13章。
11.8 DeepSeek
export DEEPSEEK_API_KEY="sk-xxxxxxxxxxxxxxxxxxxxxxxx"
{
"providers": {
"deepseek": {
"api_key": "${DEEPSEEK_API_KEY}",
"base_url": "https://api.deepseek.com/v1",
"default_model": "deepseek/deepseek-r1"
}
}
}
| 模型 ID | 特点 |
|---|---|
deepseek/deepseek-r1 |
深度推理,媲美 o1 |
deepseek/deepseek-v3.x |
通用对话,性价比极高 |
11.9 MiniMax
export MINIMAX_API_KEY="xxxxxxxxxxxxxxxxxxxxxxxx"
export MINIMAX_GROUP_ID="xxxxxxxxxxxxxxxx"
{
"providers": {
"minimax": {
"api_key": "${MINIMAX_API_KEY}",
"group_id": "${MINIMAX_GROUP_ID}",
"base_url": "https://api.minimax.chat/v1",
"default_model": "minimax/abab6.5s-chat"
}
}
}
| 模型 ID | 说明 |
|---|---|
minimax/M2.5 |
最新旗舰 |
minimax/M2.1 |
平衡版 |
minimax/M2 |
轻量版 |
11.10 xAI(Grok)
export XAI_API_KEY="xai-xxxxxxxxxxxxxxxxxxxxxxxx"
{
"providers": {
"xai": {
"api_key": "${XAI_API_KEY}",
"base_url": "https://api.x.ai/v1",
"default_model": "xai/grok-3"
}
}
}
11.11 Moonshot AI(Kimi)
export MOONSHOT_API_KEY="sk-xxxxxxxxxxxxxxxxxxxxxxxx"
{
"providers": {
"moonshot": {
"api_key": "${MOONSHOT_API_KEY}",
"base_url": "https://api.moonshot.cn/v1",
"default_model": "moonshot/moonshot-v1-128k"
}
}
}
11.12 Vercel AI Gateway
Vercel AI Gateway 作为代理网关,支持统一的速率限制和日志追踪。
{
"providers": {
"vercel": {
"api_key": "${VERCEL_AI_GATEWAY_TOKEN}",
"base_url": "https://ai-gateway.vercel.sh/v1",
"default_model": "vercel/anthropic/claude-sonnet-4-6"
}
}
}
11.13 GLM / 智谱 AI
export ZHIPU_API_KEY="xxxxxxxxxxxxxxxxxxxxxxxx"
{
"providers": {
"zhipu": {
"api_key": "${ZHIPU_API_KEY}",
"base_url": "https://open.bigmodel.cn/api/paas/v4",
"default_model": "zhipu/glm-4-plus"
}
}
}
11.14 30+ 额外 Provider 接入
通过插件系统,OpenClaw 支持更多 Provider。以下是常用的几个:
Groq(超低延迟推理)
{
"providers": {
"groq": {
"api_key": "${GROQ_API_KEY}",
"base_url": "https://api.groq.com/openai/v1",
"default_model": "groq/llama-3.1-70b-versatile"
}
}
}
Mistral AI
{
"providers": {
"mistral": {
"api_key": "${MISTRAL_API_KEY}",
"base_url": "https://api.mistral.ai/v1",
"default_model": "mistral/mistral-large-latest"
}
}
}
Qwen(通义千问)
{
"providers": {
"qwen": {
"api_key": "${DASHSCOPE_API_KEY}",
"base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"default_model": "qwen/qwen-max"
}
}
}
Doubao(火山引擎)
{
"providers": {
"doubao": {
"api_key": "${ARK_API_KEY}",
"base_url": "https://ark.cn-beijing.volces.com/api/v3",
"default_model": "doubao/doubao-pro-128k"
}
}
}
完整 Provider 支持列表
| Provider | 环境变量 | 典型模型 |
|---|---|---|
| Groq | GROQ_API_KEY |
llama-3.1-70b-versatile |
| Mistral | MISTRAL_API_KEY |
mistral-large-latest |
| Qwen/DashScope | DASHSCOPE_API_KEY |
qwen-max |
| Doubao | ARK_API_KEY |
doubao-pro-128k |
| Cohere | COHERE_API_KEY |
command-r-plus |
| Together AI | TOGETHER_API_KEY |
meta-llama/Llama-3-70b |
| Fireworks AI | FIREWORKS_API_KEY |
accounts/fireworks/models/llama-v3-70b |
| Perplexity | PERPLEXITY_API_KEY |
llama-3.1-sonar-large-128k-online |
| AI21 | AI21_API_KEY |
jamba-1.5-large |
| Replicate | REPLICATE_API_TOKEN |
meta/llama-3-70b-instruct |
| HuggingFace | HF_API_TOKEN |
任意 HF 托管模型 |
| Azure OpenAI | AZURE_OPENAI_API_KEY |
需指定 deployment |
| LM Studio | 无(本地端点) | 任意 GGUF 模型 |
| vLLM | 无(本地端点) | 任意支持 vLLM 的模型 |
11.15 多 Provider 并存配置
生产环境中通常需要同时配置多个 Provider,以实现故障转移和成本优化。
{
"providers": {
"anthropic": {
"api_key": "${ANTHROPIC_API_KEY}",
"default_model": "anthropic/claude-sonnet-4-6"
},
"openai": {
"api_key": "${OPENAI_API_KEY}",
"default_model": "openai/gpt-5.4-mini"
},
"ollama": {
"base_url": "http://localhost:11434",
"default_model": "ollama/llama3.2"
}
},
"default_provider": "anthropic",
"fallback_chain": [
"anthropic/claude-sonnet-4-6",
"openai/gpt-5.4-mini",
"ollama/llama3.2"
]
}
11.16 Provider 能力对比总览
| Provider | 上下文窗口 | 函数调用 | 视觉 | 流式 | 本地部署 |
|---|---|---|---|---|---|
| Anthropic | 200K | 是 | 是 | 是 | 否 |
| OpenAI | 128K | 是 | 是 | 是 | 否 |
| Google Gemini | 2M | 是 | 是 | 是 | 否 |
| Bedrock | 200K | 是 | 是 | 是 | 否 |
| DeepSeek | 64K | 是 | 否 | 是 | 是(开源) |
| Ollama | 模型决定 | 部分 | 部分 | 是 | 是 |
| Groq | 128K | 是 | 否 | 是 | 否 |
| Mistral | 128K | 是 | 否 | 是 | 是(开源) |
本章小结
- OpenClaw 支持 12 个官方 Provider,通过
provider/model-id统一格式引用 - 大多数 Provider 使用 API Key 认证;AWS Bedrock 使用 IAM 凭证体系
- OpenRouter 和 Vercel AI Gateway 是多 Provider 代理的最佳选择
- 本地模型(Ollama/LM Studio/vLLM)提供数据隐私和零推理成本优势
- 可以同时配置多个 Provider,并设置 fallback_chain 实现高可用
下一章 将深入讲解模型配置的高级技巧:Key Rotation、Failover 机制和推理深度控制。