首页 ›
openclaw教程中心 › 模型提供商配置教程
模型提供商配置教程
模型提供商概述
OpenClaw 支持 30+ 种 AI 模型提供商,你可以根据需求、预算和网络环境自由选择。模型是智能体的"大脑"——不同的模型在推理能力、响应速度和价格上各有差异。
模型配置的核心格式是 提供商:模型名,比如:
``
openai:gpt-4o
anthropic:claude-sonnet-4-20250514
deepseek:deepseek-chat
ollama:llama3
`
支持的模型提供商
以下是 OpenClaw 支持的主要模型提供商(按类别分组):
国际主流
| 提供商 | 模型引用前缀 | 代表模型 | 特点 |
|--------|-------------|----------|------|
| OpenAI | openai: | gpt-4o、gpt-4o-mini、o1 | 综合能力最强,生态最完善 |
| Anthropic | anthropic: | claude-sonnet-4-20250514、claude-3-haiku | 长文本理解出色,安全性高 |
| Google | google: | gemini-pro、gemini-ultra | 多模态能力强 |
| Mistral | mistral: | mistral-large、mistral-medium | 欧洲开源模型,性价比高 |
| Groq | groq: | llama-3-70b、mixtral-8x7b | 推理速度极快(LPU 加速) |
| Together | together: | 多种开源模型 | 开源模型托管平台 |
| Perplexity | perplexity: | pplx-70b-online | 联网搜索增强 |
国内推荐
| 提供商 | 模型引用前缀 | 代表模型 | 特点 |
|--------|-------------|----------|------|
| 通义千问 | qwen: | qwen-max、qwen-plus、qwen-turbo | 阿里云,中文能力强,国内访问快 |
| DeepSeek | deepseek: | deepseek-chat、deepseek-coder | 性价比极高,编程能力突出 |
| GLM 智谱 | glm: | glm-4、glm-3-turbo | 清华系,中文理解优秀 |
| Moonshot | moonshot: | moonshot-v1-8k、moonshot-v1-32k | 长文本处理,国内直连 |
本地部署
| 提供商 | 模型引用前缀 | 代表模型 | 特点 |
|--------|-------------|----------|------|
| Ollama | ollama: | llama3、codellama、mistral | 本地运行,完全免费,隐私安全 |
| LM Studio | lmstudio: | 各种 GGUF 模型 | 图形界面,易于管理 |
| llama.cpp | llamacpp: | 各种 GGUF 模型 | 轻量级,CPU 也能跑 |
国内模型配置
对于国内用户,推荐优先使用国内模型提供商——访问速度快、无需翻墙、价格实惠。
通义千问(Qwen)
通义千问是阿里云推出的大语言模型,中文能力出色,国内访问延迟低。
1. 前往 [通义千问开放平台](https://dashscope.aliyuncs.com/) 注册账号
2. 创建 API Key
3. 配置 OpenClaw:
`json5
{
"models": {
"default": "qwen:qwen-max"
}
}
`
设置 API Key(二选一):
方式一:环境变量
`bash
export QWEN_API_KEY="sk-你的密钥"
`
方式二:配置文件
`json5
{
"providers": {
"qwen": {
"apiKey": "sk-你的密钥"
}
}
}
`
通义千问模型选择建议:
| 模型 | 适用场景 | 价格 |
|------|----------|------|
| qwen-max | 复杂推理、长文本 | 较高 |
| qwen-plus | 日常对话、一般任务 | 中等 |
| qwen-turbo | 简单任务、快速响应 | 低 |
DeepSeek
DeepSeek 以极高的性价比著称,编程能力尤其突出,价格只有 GPT-4 的几十分之一。
1. 前往 [DeepSeek 开放平台](https://platform.deepseek.com/) 注册
2. 获取 API Key
3. 配置:
`json5
{
"models": {
"default": "deepseek:deepseek-chat"
},
"providers": {
"deepseek": {
"apiKey": "sk-你的密钥"
}
}
}
`
DeepSeek 模型选择:
| 模型 | 适用场景 |
|------|----------|
| deepseek-chat | 通用对话,综合能力强 |
| deepseek-coder | 编程开发,代码生成和调试 |
> 性价比之王:DeepSeek 的价格大约是 GPT-4o 的 1/50,但在很多基准测试中表现接近。如果你对成本敏感,DeepSeek 是首选。
GLM 智谱
GLM 是清华大学团队开发的大语言模型,中文理解和生成能力优秀。
`json5
{
"models": {
"default": "glm:glm-4"
},
"providers": {
"glm": {
"apiKey": "你的密钥"
}
}
}
`
Moonshot(月之暗面)
Moonshot 擅长长文本处理,支持最高 128K 上下文窗口。
`json5
{
"models": {
"default": "moonshot:moonshot-v1-32k"
},
"providers": {
"moonshot": {
"apiKey": "sk-你的密钥"
}
}
}
`
Moonshot 的上下文窗口选择:
| 模型 | 上下文长度 | 适用场景 |
|------|-----------|----------|
| moonshot-v1-8k | 8K tokens | 短对话,成本最低 |
| moonshot-v1-32k | 32K tokens | 中等长度文档 |
| moonshot-v1-128k | 128K tokens | 超长文档分析 |
OpenAI 配置
OpenAI 是目前最主流的模型提供商,配置最简单。
1. 前往 [OpenAI Platform](https://platform.openai.com/) 获取 API Key
2. 配置:
`json5
{
"models": {
"default": "openai:gpt-4o"
}
}
`
设置 API Key:
`bash
export OPENAI_API_KEY="sk-你的密钥"
`
或在配置文件中:
`json5
{
"providers": {
"openai": {
"apiKey": "sk-你的密钥"
}
}
}
`
常用 OpenAI 模型:
| 模型 | 特点 | 价格 |
|------|------|------|
| gpt-4o | 最新旗舰,多模态 | 较高 |
| gpt-4o-mini | 轻量版,速度快 | 低 |
| o1 | 深度推理,适合复杂问题 | 最高 |
> 国内用户注意:访问 OpenAI API 需要科学上网。如果网络不稳定,建议配置故障转移到国内模型。
Anthropic 配置
Anthropic 的 Claude 系列模型在长文本理解和安全性方面表现出色。
`json5
{
"models": {
"default": "anthropic:claude-sonnet-4-20250514"
},
"providers": {
"anthropic": {
"apiKey": "sk-ant-你的密钥"
}
}
}
`
设置环境变量:
`bash
export ANTHROPIC_API_KEY="sk-ant-你的密钥"
`
本地模型 Ollama 配置
Ollama 让你在本地运行开源大模型,完全免费、数据不出本机,适合隐私敏感场景。
安装 Ollama
`bash
macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
Windows
从 https://ollama.com/download 下载安装包
`
下载模型
`bash
ollama pull llama3
下载编程专用模型
ollama pull codellama
下载轻量模型(适合配置较低的机器)
ollama pull phi3
`
配置 OpenClaw 使用 Ollama
`json5
{
"models": {
"default": "ollama:llama3"
}
}
`
Ollama 默认监听 http://localhost:11434,OpenClaw 会自动连接。如果 Ollama 运行在其他地址:
`json5
{
"providers": {
"ollama": {
"baseUrl": "http://192.168.1.100:11434"
}
}
}
`
Ollama 推荐模型
| 模型 | 参数量 | 内存需求 | 适用场景 |
|------|--------|---------|----------|
| llama3 | 8B | ~8GB | 通用对话,综合能力好 |
| llama3:70b | 70B | ~40GB | 高质量推理,需要高配机器 |
| codellama | 7B | ~8GB | 编程开发 |
| mistral | 7B | ~8GB | 欧洲开源,多语言 |
| phi3 | 3.8B | ~4GB | 轻量级,低配机器也能跑 |
> 硬件建议:运行 7B 模型至少需要 8GB 内存(推荐 16GB)。如果有 NVIDIA GPU,Ollama 会自动使用 GPU 加速,速度提升 5-10 倍。
API Key 设置方式
OpenClaw 支持两种方式设置 API Key,你可以根据习惯选择。
方式一:环境变量(推荐)
在 Shell 配置文件(~/.bashrc、~/.zshrc)中添加:
`bash
OpenAI
export OPENAI_API_KEY="sk-你的密钥"
Anthropic
export ANTHROPIC_API_KEY="sk-ant-你的密钥"
DeepSeek
export DEEPSEEK_API_KEY="sk-你的密钥"
通义千问
export QWEN_API_KEY="sk-你的密钥"
`
环境变量的优点:
- 密钥不会写入配置文件,更安全
- 多个项目可以共享同一个密钥
- 方便在 CI/CD 环境中使用
方式二:配置文件
在 ~/.openclaw/openclaw.json 中直接写入:
`json5
{
"providers": {
"openai": { "apiKey": "sk-你的密钥" },
"deepseek": { "apiKey": "sk-你的密钥" }
}
}
`
配置文件的优点:
- 所有配置集中管理
- 不需要修改 Shell 环境
> 安全提醒:如果使用配置文件存储 API Key,确保文件权限设置正确(chmod 600 ~/.openclaw/openclaw.json),防止其他用户读取。
模型引用格式
在 OpenClaw 中引用模型的统一格式是:
`
提供商:模型名
`
示例:
`
openai:gpt-4o
anthropic:claude-sonnet-4-20250514
deepseek:deepseek-chat
qwen:qwen-max
ollama:llama3
groq:llama-3-70b
`
你可以在配置文件的多个位置使用这个格式:
`json5
{
"models": {
"default": "deepseek:deepseek-chat", // 默认模型
"large": "openai:gpt-4o", // 大模型(复杂任务)
"small": "openai:gpt-4o-mini" // 小模型(简单任务)
}
}
`
模型故障转移机制
网络不稳定或 API 服务临时故障时,OpenClaw 支持自动故障转移——当主模型不可用时,自动切换到备用模型。
配置故障转移
`json5
{
"models": {
"default": "openai:gpt-4o",
"fallback": [
"deepseek:deepseek-chat",
"qwen:qwen-max"
]
}
}
`
当 gpt-4o 请求失败时,OpenClaw 会依次尝试 deepseek-chat 和 qwen-max,直到有一个成功响应。
故障转移触发条件
以下情况会触发故障转移:
- API 请求超时
- 返回 5xx 服务器错误
- 返回 429 速率限制错误
- 网络连接失败
推荐的故障转移策略
国内用户推荐配置:
`json5
{
"models": {
"default": "deepseek:deepseek-chat",
"fallback": [
"qwen:qwen-plus",
"glm:glm-4"
]
}
}
`
主力用 DeepSeek(性价比高),备用通义千问和智谱 GLM,三个都是国内服务,访问稳定。
需要最强能力的配置:
`json5
{
"models": {
"default": "openai:gpt-4o",
"fallback": [
"anthropic:claude-sonnet-4-20250514",
"deepseek:deepseek-chat"
]
}
}
`
主力 GPT-4o,备用 Claude 和 DeepSeek,兼顾能力和可用性。
推荐模型选择建议
根据不同使用场景,推荐以下模型组合:
日常聊天助手
`json5
{
"models": {
"default": "deepseek:deepseek-chat"
}
}
`
DeepSeek 性价比最高,日常对话完全够用。
编程开发
`json5
{
"models": {
"default": "deepseek:deepseek-coder",
"fallback": ["openai:gpt-4o"]
}
}
`
DeepSeek Coder 编程能力强且便宜,复杂问题回退到 GPT-4o。
长文档处理
`json5
{
"models": {
"default": "moonshot:moonshot-v1-128k"
}
}
`
Moonshot 支持 128K 上下文,适合分析长文档。
隐私优先
`json5
{
"models": {
"default": "ollama:llama3"
}
}
`
本地运行,数据不出机器,完全隐私。
预算有限
`json5
{
"models": {
"default": "deepseek:deepseek-chat",
"fallback": ["qwen:qwen-turbo"]
}
}
``
DeepSeek 和通义千问 Turbo 都是低价高质的选择。
小结
OpenClaw 的模型配置灵活且强大:
- 30+ 提供商可选,国内外模型都支持
- 国内用户推荐 DeepSeek(性价比)、通义千问(中文能力)、Ollama(本地隐私)
- API Key 通过环境变量或配置文件设置
- 故障转移机制保障服务可用性
- 根据场景选择合适的模型,平衡能力、速度和成本
#OpenClaw模型配置 #AI模型提供商 #通义千问 #DeepSeek #Ollama #龙虾技能库