第 11 章

12+ Provider 全接入:Anthropic / OpenAI / Google / Bedrock / 本地模型

第11章:12+ Provider 全接入——从 Anthropic 到本地模型的完整配置指南

概述

OpenClaw 原生支持 12 个官方 LLM Provider,并通过插件系统额外支持 30+ 第三方渠道。无论你使用云端顶级模型还是本地部署的开源模型,OpenClaw 都提供统一的配置接口。本章将逐一介绍每个 Provider 的认证方式、配置示例和代表模型推荐。


11.1 模型 ID 格式规范

OpenClaw 使用统一的 provider/model-id 格式来引用所有模型。这一设计让你可以在不同 Provider 之间无缝切换,而无需修改业务逻辑代码。

格式:<provider>/<model-id>
示例:
  anthropic/claude-opus-4-6
  openai/gpt-5.5
  google/gemini-3.1-pro
  ollama/llama3.2
  deepseek/deepseek-r1

配置文件中的引用示例:

{
  "model": "anthropic/claude-sonnet-4-6",
  "fallback_model": "openai/gpt-5.4-mini"
}

规范要点

  • provider 名称全小写,使用官方注册名
  • model-id 与 Provider 官方 API 文档一致
  • 本地模型使用 ollama/lmstudio/ 前缀

11.2 Anthropic

认证方式

Anthropic 使用 API Key 认证,通过环境变量 ANTHROPIC_API_KEY 传入。

# 设置环境变量
export ANTHROPIC_API_KEY="sk-ant-api03-xxxxxxxxxxxxxxxxxxxxxxxx"

配置示例

{
  "providers": {
    "anthropic": {
      "api_key": "${ANTHROPIC_API_KEY}",
      "base_url": "https://api.anthropic.com",
      "version": "2023-06-01",
      "default_model": "anthropic/claude-sonnet-4-6"
    }
  }
}

代表模型

模型 ID 特点 推荐场景
anthropic/claude-opus-4-6 最强推理,成本最高 复杂多步骤任务、代码架构设计
anthropic/claude-sonnet-4-6 性能与成本平衡 日常主力模型、大多数生产场景
anthropic/claude-haiku-4-5 速度最快,成本最低 高频轻量任务、摘要、分类

高级配置

{
  "providers": {
    "anthropic": {
      "api_key": "${ANTHROPIC_API_KEY}",
      "max_tokens": 8192,
      "timeout_seconds": 120,
      "extra_headers": {
        "anthropic-beta": "interleaved-thinking-2025-05-14"
      }
    }
  }
}

11.3 OpenAI

认证方式

export OPENAI_API_KEY="sk-proj-xxxxxxxxxxxxxxxxxxxxxxxx"
# 可选:指定组织 ID
export OPENAI_ORG_ID="org-xxxxxxxxxxxxxxxx"

配置示例

{
  "providers": {
    "openai": {
      "api_key": "${OPENAI_API_KEY}",
      "organization": "${OPENAI_ORG_ID}",
      "base_url": "https://api.openai.com/v1",
      "default_model": "openai/gpt-5.5"
    }
  }
}

代表模型

模型 ID 特点 推荐场景
openai/gpt-5.5 最强旗舰,多模态 高复杂度推理、视觉分析
openai/gpt-5.4-mini 高效经济 快速迭代、原型开发
openai/o3 深度推理链 数学/逻辑/科学问题
openai/o1 推理增强 编程竞赛、复杂推导

11.4 Google Gemini

认证方式

export GEMINI_API_KEY="AIzaSy-xxxxxxxxxxxxxxxxxxxxxxxx"

配置示例

{
  "providers": {
    "google": {
      "api_key": "${GEMINI_API_KEY}",
      "base_url": "https://generativelanguage.googleapis.com/v1beta",
      "default_model": "google/gemini-3.1-pro"
    }
  }
}

代表模型

模型 ID 特点 推荐场景
google/gemini-3.1-pro 长上下文,多模态 大文档分析、视频理解
google/gemini-3-flash 极速响应 实时交互、流式输出

11.5 Amazon Bedrock

Bedrock 是 AWS 托管的模型服务,认证方式与普通 API Key 不同——使用 AWS 标准凭证体系。

认证方式

方式 A:环境变量(开发环境推荐)

export AWS_ACCESS_KEY_ID="AKIAIOSFODNN7EXAMPLE"
export AWS_SECRET_ACCESS_KEY="wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY"
export AWS_DEFAULT_REGION="us-east-1"

方式 B:AWS Profile(多账号管理推荐)

# ~/.aws/credentials
[openclaw-prod]
aws_access_key_id = AKIAIOSFODNN7EXAMPLE
aws_secret_access_key = wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY

# ~/.aws/config
[profile openclaw-prod]
region = us-east-1

方式 C:IAM Role(生产环境推荐)

# EC2/ECS/Lambda 自动使用实例角色,无需显式配置凭证

配置示例

{
  "providers": {
    "bedrock": {
      "region": "us-east-1",
      "profile": "openclaw-prod",
      "default_model": "bedrock/anthropic.claude-sonnet-4-6-v1:0"
    }
  }
}

Bedrock vs 直连 Anthropic 对比

维度 Bedrock 直连 Anthropic
认证 AWS IAM API Key
合规 AWS 合规体系 Anthropic 合规
网络 AWS VPC 内网 公网
计费 AWS 账单 Anthropic 账单
延迟 同区低延迟 取决于网络

11.6 OpenRouter

OpenRouter 作为多 Provider 代理,允许你用单一 API Key 路由到 100+ 模型。

适用场景

配置示例

{
  "providers": {
    "openrouter": {
      "api_key": "${OPENROUTER_API_KEY}",
      "base_url": "https://openrouter.ai/api/v1",
      "default_model": "openrouter/anthropic/claude-opus-4-6",
      "extra_headers": {
        "HTTP-Referer": "https://yourapp.com",
        "X-Title": "OpenClaw Agent"
      }
    }
  }
}

模型 ID 格式

OpenRouter 使用双层嵌套格式:

openrouter/<original-provider>/<model-id>
示例:
  openrouter/anthropic/claude-opus-4-6
  openrouter/openai/gpt-5.5
  openrouter/google/gemini-3.1-pro
  openrouter/meta-llama/llama-3.1-70b-instruct

11.7 Ollama(本地)

export OLLAMA_BASE_URL="http://localhost:11434"
{
  "providers": {
    "ollama": {
      "base_url": "${OLLAMA_BASE_URL}",
      "default_model": "ollama/llama3.2"
    }
  }
}

详细接入方法见第13章。


11.8 DeepSeek

export DEEPSEEK_API_KEY="sk-xxxxxxxxxxxxxxxxxxxxxxxx"
{
  "providers": {
    "deepseek": {
      "api_key": "${DEEPSEEK_API_KEY}",
      "base_url": "https://api.deepseek.com/v1",
      "default_model": "deepseek/deepseek-r1"
    }
  }
}
模型 ID 特点
deepseek/deepseek-r1 深度推理,媲美 o1
deepseek/deepseek-v3.x 通用对话,性价比极高

11.9 MiniMax

export MINIMAX_API_KEY="xxxxxxxxxxxxxxxxxxxxxxxx"
export MINIMAX_GROUP_ID="xxxxxxxxxxxxxxxx"
{
  "providers": {
    "minimax": {
      "api_key": "${MINIMAX_API_KEY}",
      "group_id": "${MINIMAX_GROUP_ID}",
      "base_url": "https://api.minimax.chat/v1",
      "default_model": "minimax/abab6.5s-chat"
    }
  }
}
模型 ID 说明
minimax/M2.5 最新旗舰
minimax/M2.1 平衡版
minimax/M2 轻量版

11.10 xAI(Grok)

export XAI_API_KEY="xai-xxxxxxxxxxxxxxxxxxxxxxxx"
{
  "providers": {
    "xai": {
      "api_key": "${XAI_API_KEY}",
      "base_url": "https://api.x.ai/v1",
      "default_model": "xai/grok-3"
    }
  }
}

11.11 Moonshot AI(Kimi)

export MOONSHOT_API_KEY="sk-xxxxxxxxxxxxxxxxxxxxxxxx"
{
  "providers": {
    "moonshot": {
      "api_key": "${MOONSHOT_API_KEY}",
      "base_url": "https://api.moonshot.cn/v1",
      "default_model": "moonshot/moonshot-v1-128k"
    }
  }
}

11.12 Vercel AI Gateway

Vercel AI Gateway 作为代理网关,支持统一的速率限制和日志追踪。

{
  "providers": {
    "vercel": {
      "api_key": "${VERCEL_AI_GATEWAY_TOKEN}",
      "base_url": "https://ai-gateway.vercel.sh/v1",
      "default_model": "vercel/anthropic/claude-sonnet-4-6"
    }
  }
}

11.13 GLM / 智谱 AI

export ZHIPU_API_KEY="xxxxxxxxxxxxxxxxxxxxxxxx"
{
  "providers": {
    "zhipu": {
      "api_key": "${ZHIPU_API_KEY}",
      "base_url": "https://open.bigmodel.cn/api/paas/v4",
      "default_model": "zhipu/glm-4-plus"
    }
  }
}

11.14 30+ 额外 Provider 接入

通过插件系统,OpenClaw 支持更多 Provider。以下是常用的几个:

Groq(超低延迟推理)

{
  "providers": {
    "groq": {
      "api_key": "${GROQ_API_KEY}",
      "base_url": "https://api.groq.com/openai/v1",
      "default_model": "groq/llama-3.1-70b-versatile"
    }
  }
}

Mistral AI

{
  "providers": {
    "mistral": {
      "api_key": "${MISTRAL_API_KEY}",
      "base_url": "https://api.mistral.ai/v1",
      "default_model": "mistral/mistral-large-latest"
    }
  }
}

Qwen(通义千问)

{
  "providers": {
    "qwen": {
      "api_key": "${DASHSCOPE_API_KEY}",
      "base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1",
      "default_model": "qwen/qwen-max"
    }
  }
}

Doubao(火山引擎)

{
  "providers": {
    "doubao": {
      "api_key": "${ARK_API_KEY}",
      "base_url": "https://ark.cn-beijing.volces.com/api/v3",
      "default_model": "doubao/doubao-pro-128k"
    }
  }
}

完整 Provider 支持列表

Provider 环境变量 典型模型
Groq GROQ_API_KEY llama-3.1-70b-versatile
Mistral MISTRAL_API_KEY mistral-large-latest
Qwen/DashScope DASHSCOPE_API_KEY qwen-max
Doubao ARK_API_KEY doubao-pro-128k
Cohere COHERE_API_KEY command-r-plus
Together AI TOGETHER_API_KEY meta-llama/Llama-3-70b
Fireworks AI FIREWORKS_API_KEY accounts/fireworks/models/llama-v3-70b
Perplexity PERPLEXITY_API_KEY llama-3.1-sonar-large-128k-online
AI21 AI21_API_KEY jamba-1.5-large
Replicate REPLICATE_API_TOKEN meta/llama-3-70b-instruct
HuggingFace HF_API_TOKEN 任意 HF 托管模型
Azure OpenAI AZURE_OPENAI_API_KEY 需指定 deployment
LM Studio 无(本地端点) 任意 GGUF 模型
vLLM 无(本地端点) 任意支持 vLLM 的模型

11.15 多 Provider 并存配置

生产环境中通常需要同时配置多个 Provider,以实现故障转移和成本优化。

{
  "providers": {
    "anthropic": {
      "api_key": "${ANTHROPIC_API_KEY}",
      "default_model": "anthropic/claude-sonnet-4-6"
    },
    "openai": {
      "api_key": "${OPENAI_API_KEY}",
      "default_model": "openai/gpt-5.4-mini"
    },
    "ollama": {
      "base_url": "http://localhost:11434",
      "default_model": "ollama/llama3.2"
    }
  },
  "default_provider": "anthropic",
  "fallback_chain": [
    "anthropic/claude-sonnet-4-6",
    "openai/gpt-5.4-mini",
    "ollama/llama3.2"
  ]
}

11.16 Provider 能力对比总览

Provider 上下文窗口 函数调用 视觉 流式 本地部署
Anthropic 200K
OpenAI 128K
Google Gemini 2M
Bedrock 200K
DeepSeek 64K 是(开源)
Ollama 模型决定 部分 部分
Groq 128K
Mistral 128K 是(开源)

本章小结

下一章 将深入讲解模型配置的高级技巧:Key Rotation、Failover 机制和推理深度控制。

本章评分
4.8  / 5  (34 评分)

💬 留言讨论