OpenClaw 支持连接多种远程AI模型服务,让您无需在本地部署大模型,也能享受强大的AI功能。以下是详细的配置步骤和方案

openclaw 中文openclaw 1

主要支持的远程模型类型

  1. OpenAI 兼容API(最常用)

    OpenClaw 支持连接多种远程AI模型服务,让您无需在本地部署大模型,也能享受强大的AI功能。以下是详细的配置步骤和方案-第1张图片-OpenClaw下载中文-AI中文智能体

    • OpenAI GPT系列 (GPT-4, GPT-3.5-Turbo)
    • Azure OpenAI
    • 其他兼容OpenAI API格式的服务(如DeepSeek, MoonShot, 国内各大平台等)
  2. 本地/内网模型服务器

    • Ollama
    • vLLM
    • Text Generation WebUI (oobabooga)
    • LM Studio

配置步骤(以OpenAI兼容API为例)

方法1:通过图形界面配置

  1. 启动OpenClaw,进入主界面
  2. 打开设置/配置
    • 通常在右上角或侧边栏找到 设置 (Settings) 或 模型配置 (Model Configuration)
  3. 选择模型提供商
    • 找到 模型选择API提供商 下拉菜单
    • 选择 OpenAI自定义API
  4. 填写API信息
    API Base URL: https://api.openai.com/v1  # 或您的自定义端点
    API Key: sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx  # 您的API密钥
    模型名称: gpt-3.5-turbo  # 或 gpt-4, gpt-4-turbo等
  5. 高级设置(可选):
    • 温度 (Temperature): 0.7
    • 最大令牌数 (Max Tokens): 2048
    • 上下文长度: 根据模型调整
  6. 测试连接
    • 点击 测试连接保存并测试
    • 看到成功提示后即可使用

方法2:通过配置文件修改(适合高级用户)

  1. 找到配置文件

    • Windows: %APPDATA%\openclaw\config.yaml
    • macOS: ~/Library/Application Support/openclaw/config.yaml
    • Linux: ~/.config/openclaw/config.yaml
  2. 编辑配置

    model:
      provider: "openai"
      openai:
        api_base: "https://api.openai.com/v1"
        api_key: "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
        model: "gpt-3.5-turbo"
      parameters:
        temperature: 0.7
        max_tokens: 2048
  3. 重启OpenClaw使配置生效

其他常见服务的配置示例

Azure OpenAI配置

api_base: "https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-name}"
api_key: "your-azure-api-key"
api_type: "azure"
api_version: "2023-05-15"  # 根据实际情况调整
model: "gpt-35-turbo"  # 部署时选择的名称

Ollama本地模型配置

api_base: "http://localhost:11434/v1"  # Ollama默认端口
api_key: "ollama"  # 可随意填写,Ollama通常不需要验证
model: "qwen:7b"  # 您在Ollama中拉取的模型名称

国内大模型平台示例

  • DeepSeek:

    api_base: "https://api.deepseek.com/v1"
    api_key: "sk-xxxxxxxxxxxxxxxx"
    model: "deepseek-chat"
  • 通义千问:

    api_base: "https://dashscope.aliyuncs.com/compatible-mode/v1"
    api_key: "sk-xxxxxxxxxxxxxxxx"
    model: "qwen-max"

常见问题解决

❌ 连接测试失败

  1. 检查网络连接:确保能访问API端点
  2. 验证API密钥:确认密钥有效且未过期
  3. 检查API Base URL:确保URL格式正确
  4. 查看防火墙设置:本地模型需关闭防火墙或添加例外

❌ 模型响应慢

  1. 调整超时设置:在设置中增加超时时间
  2. 更换模型:尝试更轻量的模型
  3. 检查网络延迟:使用离您更近的服务器

❌ 上下文长度不足

  1. 在配置中减少max_tokens
  2. 使用支持更长上下文的模型
  3. 开启“流式传输”减少等待时间

高级技巧

多模型切换

在配置文件中可以预设多个模型配置,通过界面快速切换:

model_presets:
  fast_model:
    provider: "openai"
    model: "gpt-3.5-turbo"
  smart_model:
    provider: "openai"
    model: "gpt-4"
  local_model:
    provider: "openai"
    api_base: "http://localhost:11434/v1"
    model: "llama2"

API密钥安全管理

  • 建议使用环境变量存储API密钥:

    # 设置环境变量
    export OPENAI_API_KEY="sk-xxxx"
    # 然后在OpenClaw中使用环境变量
    api_key: "${OPENAI_API_KEY}"

代理设置

如果遇到网络连接问题,可以配置代理:

proxy:
  http: "http://127.0.0.1:10809"
  https: "http://127.0.0.1:10809"

推荐配置方案

使用场景 推荐配置 预估成本
日常聊天/写作 GPT-3.5-Turbo + OpenAI官方API $0.5-2/月
代码编程 DeepSeek Coder + 国内API 免费额度充足
学术研究 GPT-4 + Azure OpenAI $10-20/月
完全免费 Ollama + 本地7B模型 免费,需本地GPU

温馨提示

  1. 首次配置建议先用免费的API额度测试
  2. 关注各平台的计费方式,设置用量限制
  3. 定期检查API密钥的有效性

如果遇到具体问题,可以:

  • 查看OpenClaw的官方文档
  • 在GitHub Issues中搜索相关问题
  • 提供具体的错误信息寻求帮助

祝您使用愉快!如果配置过程中遇到具体问题,欢迎提供更多细节,我会帮您进一步分析解决。🦞

标签: OpenClaw 远程AI模型

上一篇Linux/macOS

下一篇最低配置

抱歉,评论功能暂时关闭!