主要支持的远程模型类型
-
OpenAI 兼容API(最常用)

- OpenAI GPT系列 (GPT-4, GPT-3.5-Turbo)
- Azure OpenAI
- 其他兼容OpenAI API格式的服务(如DeepSeek, MoonShot, 国内各大平台等)
-
本地/内网模型服务器
- Ollama
- vLLM
- Text Generation WebUI (oobabooga)
- LM Studio
配置步骤(以OpenAI兼容API为例)
方法1:通过图形界面配置
- 启动OpenClaw,进入主界面
- 打开设置/配置:
- 通常在右上角或侧边栏找到
设置(Settings) 或模型配置(Model Configuration)
- 通常在右上角或侧边栏找到
- 选择模型提供商:
- 找到
模型选择或API提供商下拉菜单 - 选择
OpenAI或自定义API
- 找到
- 填写API信息:
API Base URL: https://api.openai.com/v1 # 或您的自定义端点 API Key: sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx # 您的API密钥 模型名称: gpt-3.5-turbo # 或 gpt-4, gpt-4-turbo等
- 高级设置(可选):
- 温度 (Temperature): 0.7
- 最大令牌数 (Max Tokens): 2048
- 上下文长度: 根据模型调整
- 测试连接:
- 点击
测试连接或保存并测试 - 看到成功提示后即可使用
- 点击
方法2:通过配置文件修改(适合高级用户)
-
找到配置文件:
- Windows:
%APPDATA%\openclaw\config.yaml - macOS:
~/Library/Application Support/openclaw/config.yaml - Linux:
~/.config/openclaw/config.yaml
- Windows:
-
编辑配置:
model: provider: "openai" openai: api_base: "https://api.openai.com/v1" api_key: "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" model: "gpt-3.5-turbo" parameters: temperature: 0.7 max_tokens: 2048 -
重启OpenClaw使配置生效
其他常见服务的配置示例
Azure OpenAI配置
api_base: "https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-name}"
api_key: "your-azure-api-key"
api_type: "azure"
api_version: "2023-05-15" # 根据实际情况调整
model: "gpt-35-turbo" # 部署时选择的名称
Ollama本地模型配置
api_base: "http://localhost:11434/v1" # Ollama默认端口 api_key: "ollama" # 可随意填写,Ollama通常不需要验证 model: "qwen:7b" # 您在Ollama中拉取的模型名称
国内大模型平台示例
-
DeepSeek:
api_base: "https://api.deepseek.com/v1" api_key: "sk-xxxxxxxxxxxxxxxx" model: "deepseek-chat"
-
通义千问:
api_base: "https://dashscope.aliyuncs.com/compatible-mode/v1" api_key: "sk-xxxxxxxxxxxxxxxx" model: "qwen-max"
常见问题解决
❌ 连接测试失败
- 检查网络连接:确保能访问API端点
- 验证API密钥:确认密钥有效且未过期
- 检查API Base URL:确保URL格式正确
- 查看防火墙设置:本地模型需关闭防火墙或添加例外
❌ 模型响应慢
- 调整超时设置:在设置中增加超时时间
- 更换模型:尝试更轻量的模型
- 检查网络延迟:使用离您更近的服务器
❌ 上下文长度不足
- 在配置中减少
max_tokens - 使用支持更长上下文的模型
- 开启“流式传输”减少等待时间
高级技巧
多模型切换
在配置文件中可以预设多个模型配置,通过界面快速切换:
model_presets:
fast_model:
provider: "openai"
model: "gpt-3.5-turbo"
smart_model:
provider: "openai"
model: "gpt-4"
local_model:
provider: "openai"
api_base: "http://localhost:11434/v1"
model: "llama2"
API密钥安全管理
-
建议使用环境变量存储API密钥:
# 设置环境变量 export OPENAI_API_KEY="sk-xxxx" # 然后在OpenClaw中使用环境变量 api_key: "${OPENAI_API_KEY}"
代理设置
如果遇到网络连接问题,可以配置代理:
proxy: http: "http://127.0.0.1:10809" https: "http://127.0.0.1:10809"
推荐配置方案
| 使用场景 | 推荐配置 | 预估成本 |
|---|---|---|
| 日常聊天/写作 | GPT-3.5-Turbo + OpenAI官方API | $0.5-2/月 |
| 代码编程 | DeepSeek Coder + 国内API | 免费额度充足 |
| 学术研究 | GPT-4 + Azure OpenAI | $10-20/月 |
| 完全免费 | Ollama + 本地7B模型 | 免费,需本地GPU |
温馨提示:
- 首次配置建议先用免费的API额度测试
- 关注各平台的计费方式,设置用量限制
- 定期检查API密钥的有效性
如果遇到具体问题,可以:
- 查看OpenClaw的官方文档
- 在GitHub Issues中搜索相关问题
- 提供具体的错误信息寻求帮助
祝您使用愉快!如果配置过程中遇到具体问题,欢迎提供更多细节,我会帮您进一步分析解决。🦞
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。