首页openclaw教程中心 › 模型提供商配置教程

模型提供商配置教程

模型提供商概述

OpenClaw 支持 30+ 种 AI 模型提供商,你可以根据需求、预算和网络环境自由选择。模型是智能体的"大脑"——不同的模型在推理能力、响应速度和价格上各有差异。 模型配置的核心格式是 提供商:模型名,比如: `` openai:gpt-4o anthropic:claude-sonnet-4-20250514 deepseek:deepseek-chat ollama:llama3 `

支持的模型提供商

以下是 OpenClaw 支持的主要模型提供商(按类别分组):

国际主流

| 提供商 | 模型引用前缀 | 代表模型 | 特点 | |--------|-------------|----------|------| | OpenAI |
openai: | gpt-4o、gpt-4o-mini、o1 | 综合能力最强,生态最完善 | | Anthropic | anthropic: | claude-sonnet-4-20250514、claude-3-haiku | 长文本理解出色,安全性高 | | Google | google: | gemini-pro、gemini-ultra | 多模态能力强 | | Mistral | mistral: | mistral-large、mistral-medium | 欧洲开源模型,性价比高 | | Groq | groq: | llama-3-70b、mixtral-8x7b | 推理速度极快(LPU 加速) | | Together | together: | 多种开源模型 | 开源模型托管平台 | | Perplexity | perplexity: | pplx-70b-online | 联网搜索增强 |

国内推荐

| 提供商 | 模型引用前缀 | 代表模型 | 特点 | |--------|-------------|----------|------| | 通义千问 |
qwen: | qwen-max、qwen-plus、qwen-turbo | 阿里云,中文能力强,国内访问快 | | DeepSeek | deepseek: | deepseek-chat、deepseek-coder | 性价比极高,编程能力突出 | | GLM 智谱 | glm: | glm-4、glm-3-turbo | 清华系,中文理解优秀 | | Moonshot | moonshot: | moonshot-v1-8k、moonshot-v1-32k | 长文本处理,国内直连 |

本地部署

| 提供商 | 模型引用前缀 | 代表模型 | 特点 | |--------|-------------|----------|------| | Ollama |
ollama: | llama3、codellama、mistral | 本地运行,完全免费,隐私安全 | | LM Studio | lmstudio: | 各种 GGUF 模型 | 图形界面,易于管理 | | llama.cpp | llamacpp: | 各种 GGUF 模型 | 轻量级,CPU 也能跑 |

国内模型配置

对于国内用户,推荐优先使用国内模型提供商——访问速度快、无需翻墙、价格实惠。

通义千问(Qwen)

通义千问是阿里云推出的大语言模型,中文能力出色,国内访问延迟低。 1. 前往 [通义千问开放平台](https://dashscope.aliyuncs.com/) 注册账号 2. 创建 API Key 3. 配置 OpenClaw:
`json5 { "models": { "default": "qwen:qwen-max" } } ` 设置 API Key(二选一): 方式一:环境变量 `bash export QWEN_API_KEY="sk-你的密钥" ` 方式二:配置文件 `json5 { "providers": { "qwen": { "apiKey": "sk-你的密钥" } } } ` 通义千问模型选择建议: | 模型 | 适用场景 | 价格 | |------|----------|------| | qwen-max | 复杂推理、长文本 | 较高 | | qwen-plus | 日常对话、一般任务 | 中等 | | qwen-turbo | 简单任务、快速响应 | 低 |

DeepSeek

DeepSeek 以极高的性价比著称,编程能力尤其突出,价格只有 GPT-4 的几十分之一。 1. 前往 [DeepSeek 开放平台](https://platform.deepseek.com/) 注册 2. 获取 API Key 3. 配置:
`json5 { "models": { "default": "deepseek:deepseek-chat" }, "providers": { "deepseek": { "apiKey": "sk-你的密钥" } } } ` DeepSeek 模型选择: | 模型 | 适用场景 | |------|----------| | deepseek-chat | 通用对话,综合能力强 | | deepseek-coder | 编程开发,代码生成和调试 | > 性价比之王:DeepSeek 的价格大约是 GPT-4o 的 1/50,但在很多基准测试中表现接近。如果你对成本敏感,DeepSeek 是首选。

GLM 智谱

GLM 是清华大学团队开发的大语言模型,中文理解和生成能力优秀。
`json5 { "models": { "default": "glm:glm-4" }, "providers": { "glm": { "apiKey": "你的密钥" } } } `

Moonshot(月之暗面)

Moonshot 擅长长文本处理,支持最高 128K 上下文窗口。
`json5 { "models": { "default": "moonshot:moonshot-v1-32k" }, "providers": { "moonshot": { "apiKey": "sk-你的密钥" } } } ` Moonshot 的上下文窗口选择: | 模型 | 上下文长度 | 适用场景 | |------|-----------|----------| | moonshot-v1-8k | 8K tokens | 短对话,成本最低 | | moonshot-v1-32k | 32K tokens | 中等长度文档 | | moonshot-v1-128k | 128K tokens | 超长文档分析 |

OpenAI 配置

OpenAI 是目前最主流的模型提供商,配置最简单。 1. 前往 [OpenAI Platform](https://platform.openai.com/) 获取 API Key 2. 配置:
`json5 { "models": { "default": "openai:gpt-4o" } } ` 设置 API Key: `bash export OPENAI_API_KEY="sk-你的密钥" ` 或在配置文件中: `json5 { "providers": { "openai": { "apiKey": "sk-你的密钥" } } } ` 常用 OpenAI 模型: | 模型 | 特点 | 价格 | |------|------|------| | gpt-4o | 最新旗舰,多模态 | 较高 | | gpt-4o-mini | 轻量版,速度快 | 低 | | o1 | 深度推理,适合复杂问题 | 最高 | > 国内用户注意:访问 OpenAI API 需要科学上网。如果网络不稳定,建议配置故障转移到国内模型。

Anthropic 配置

Anthropic 的 Claude 系列模型在长文本理解和安全性方面表现出色。
`json5 { "models": { "default": "anthropic:claude-sonnet-4-20250514" }, "providers": { "anthropic": { "apiKey": "sk-ant-你的密钥" } } } ` 设置环境变量: `bash export ANTHROPIC_API_KEY="sk-ant-你的密钥" `

本地模型 Ollama 配置

Ollama 让你在本地运行开源大模型,完全免费、数据不出本机,适合隐私敏感场景。

安装 Ollama

`bash

macOS / Linux

curl -fsSL https://ollama.com/install.sh | sh

Windows

从 https://ollama.com/download 下载安装包

`

下载模型

`bash

下载 Llama 3(Meta 最新开源模型)

ollama pull llama3

下载编程专用模型

ollama pull codellama

下载轻量模型(适合配置较低的机器)

ollama pull phi3
`

配置 OpenClaw 使用 Ollama

`json5 { "models": { "default": "ollama:llama3" } } ` Ollama 默认监听 http://localhost:11434,OpenClaw 会自动连接。如果 Ollama 运行在其他地址: `json5 { "providers": { "ollama": { "baseUrl": "http://192.168.1.100:11434" } } } `

Ollama 推荐模型

| 模型 | 参数量 | 内存需求 | 适用场景 | |------|--------|---------|----------| |
llama3 | 8B | ~8GB | 通用对话,综合能力好 | | llama3:70b | 70B | ~40GB | 高质量推理,需要高配机器 | | codellama | 7B | ~8GB | 编程开发 | | mistral | 7B | ~8GB | 欧洲开源,多语言 | | phi3 | 3.8B | ~4GB | 轻量级,低配机器也能跑 | > 硬件建议:运行 7B 模型至少需要 8GB 内存(推荐 16GB)。如果有 NVIDIA GPU,Ollama 会自动使用 GPU 加速,速度提升 5-10 倍。

API Key 设置方式

OpenClaw 支持两种方式设置 API Key,你可以根据习惯选择。

方式一:环境变量(推荐)

在 Shell 配置文件(
~/.bashrc~/.zshrc)中添加: `bash

OpenAI

export OPENAI_API_KEY="sk-你的密钥"

Anthropic

export ANTHROPIC_API_KEY="sk-ant-你的密钥"

DeepSeek

export DEEPSEEK_API_KEY="sk-你的密钥"

通义千问

export QWEN_API_KEY="sk-你的密钥"
` 环境变量的优点: - 密钥不会写入配置文件,更安全 - 多个项目可以共享同一个密钥 - 方便在 CI/CD 环境中使用

方式二:配置文件

~/.openclaw/openclaw.json 中直接写入: `json5 { "providers": { "openai": { "apiKey": "sk-你的密钥" }, "deepseek": { "apiKey": "sk-你的密钥" } } } ` 配置文件的优点: - 所有配置集中管理 - 不需要修改 Shell 环境 > 安全提醒:如果使用配置文件存储 API Key,确保文件权限设置正确(chmod 600 ~/.openclaw/openclaw.json),防止其他用户读取。

模型引用格式

在 OpenClaw 中引用模型的统一格式是:
` 提供商:模型名 ` 示例: ` openai:gpt-4o anthropic:claude-sonnet-4-20250514 deepseek:deepseek-chat qwen:qwen-max ollama:llama3 groq:llama-3-70b ` 你可以在配置文件的多个位置使用这个格式: `json5 { "models": { "default": "deepseek:deepseek-chat", // 默认模型 "large": "openai:gpt-4o", // 大模型(复杂任务) "small": "openai:gpt-4o-mini" // 小模型(简单任务) } } `

模型故障转移机制

网络不稳定或 API 服务临时故障时,OpenClaw 支持自动故障转移——当主模型不可用时,自动切换到备用模型。

配置故障转移

`json5 { "models": { "default": "openai:gpt-4o", "fallback": [ "deepseek:deepseek-chat", "qwen:qwen-max" ] } } `gpt-4o 请求失败时,OpenClaw 会依次尝试 deepseek-chatqwen-max,直到有一个成功响应。

故障转移触发条件

以下情况会触发故障转移: - API 请求超时 - 返回 5xx 服务器错误 - 返回 429 速率限制错误 - 网络连接失败

推荐的故障转移策略

国内用户推荐配置
`json5 { "models": { "default": "deepseek:deepseek-chat", "fallback": [ "qwen:qwen-plus", "glm:glm-4" ] } } ` 主力用 DeepSeek(性价比高),备用通义千问和智谱 GLM,三个都是国内服务,访问稳定。 需要最强能力的配置`json5 { "models": { "default": "openai:gpt-4o", "fallback": [ "anthropic:claude-sonnet-4-20250514", "deepseek:deepseek-chat" ] } } ` 主力 GPT-4o,备用 Claude 和 DeepSeek,兼顾能力和可用性。

推荐模型选择建议

根据不同使用场景,推荐以下模型组合:

日常聊天助手

`json5 { "models": { "default": "deepseek:deepseek-chat" } } ` DeepSeek 性价比最高,日常对话完全够用。

编程开发

`json5 { "models": { "default": "deepseek:deepseek-coder", "fallback": ["openai:gpt-4o"] } } ` DeepSeek Coder 编程能力强且便宜,复杂问题回退到 GPT-4o。

长文档处理

`json5 { "models": { "default": "moonshot:moonshot-v1-128k" } } ` Moonshot 支持 128K 上下文,适合分析长文档。

隐私优先

`json5 { "models": { "default": "ollama:llama3" } } ` 本地运行,数据不出机器,完全隐私。

预算有限

`json5 { "models": { "default": "deepseek:deepseek-chat", "fallback": ["qwen:qwen-turbo"] } } `` DeepSeek 和通义千问 Turbo 都是低价高质的选择。

小结

OpenClaw 的模型配置灵活且强大: - 30+ 提供商可选,国内外模型都支持 - 国内用户推荐 DeepSeek(性价比)、通义千问(中文能力)、Ollama(本地隐私) - API Key 通过环境变量或配置文件设置 - 故障转移机制保障服务可用性 - 根据场景选择合适的模型,平衡能力、速度和成本 #OpenClaw模型配置 #AI模型提供商 #通义千问 #DeepSeek #Ollama #龙虾技能库
#模型配置#AI模型#通义千问#DeepSeek#Ollama#国内模型
← 模型故障转移与流式传输教程会话管理教程 →