OpenClaw是什么?
OpenClaw是一个开源、可自我托管的类OpenAI API服务器,它就像一个“万能适配器”,后端可以连接阿里云灵积、DeepSeek、GLM等多家大模型,而前端则提供与OpenAI官方完全兼容的API接口,这意味着,任何基于OpenAI API开发的应用(如ChatGPT-Next-Web、各类AI工具)无需修改,就能直接使用你配置的模型。

部署流程(物流分拣式步骤)
整个过程就像处理一个快递包裹,我们一步步来:
第一步:准备“运输工具” - 服务器与环境
- 选择服务器:推荐使用Linux服务器(Ubuntu 22.04 LTS 或 CentOS 8+),云服务商(阿里云、腾讯云、AWS等)选择最低配置(1核2G)即可起步。
- 系统更新:
sudo apt update && sudo apt upgrade -y # Ubuntu/Debian # 或 sudo yum update -y # CentOS/RHEL
- 安装必备工具:Git, Python, Pip
sudo apt install -y git python3 python3-pip python3-venv # Ubuntu
第二步:领取“货物” - 获取源代码
- 克隆项目仓库:
git clone https://github.com/shroominic/openclaw.git cd openclaw
第三步:“分拣中心”建设 - 配置虚拟环境
- 创建并激活Python虚拟环境(避免依赖冲突):
python3 -m venv venv source venv/bin/activate # Linux/macOS # Windows: venv\Scripts\activate
- 安装项目依赖:
pip install -r requirements.txt
第四步:“地址与路由”设置 - 配置文件
这是最关键的一步,决定了你的API将“呼叫”哪个模型。
-
复制示例配置文件并创建你的个人配置:
cp .env.example .env
-
编辑
.env文件,填入你的模型平台API密钥,以下以阿里云灵积为例:# 设置服务端口,默认为 8000 PORT=8000 # === 阿里云通义千问配置示例 === CLAW_PROVIDER=alibabacloud # 提供商 CLAW_MODEL=qwen-plus # 模型名,如 qwen-max, qwen-turbo CLAW_ACCESS_KEY_ID=你的AccessKeyId CLAW_ACCESS_KEY_SECRET=你的AccessKeySecret # 其他提供商(如DeepSeek, OpenAI)的配置格式类似,参考.env.example
如何获取阿里云密钥:登录阿里云控制台,创建AccessKey并赋予相关模型权限。
第五步:“启动运输” - 运行服务
- 在项目根目录下,执行启动命令:
python main.py
或使用更健壮的生产环境工具
uvicorn:uvicorn main:app --host 0.0.0.0 --port 8000 --reload
- 看到类似
Application startup complete.和Uvicorn running on http://0.0.0.0:8000的日志,即表示成功。
第六步:“签收验证” - 测试API
- 本地测试:
curl http://127.0.0.1:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer any_key_here" \ -d '{ "model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "你好,请自我介绍"}] }' - 在客户端中使用:将你原有应用的OpenAI API地址(
https://api.openai.com)替换为http://你的服务器IP:8000,API Key可随意填写(或在服务端配置固定密钥)。
高级物流管理(生产环境部署)
对于长期稳定运行,建议:
-
使用进程守护:用
systemd或supervisor管理进程,实现崩溃自重启。-
创建 systemd 服务文件
/etc/systemd/system/openclaw.service:[Unit] Description=OpenClaw API Server After=network.target [Service] User=你的用户名 WorkingDirectory=/path/to/openclaw ExecStart=/path/to/openclaw/venv/bin/uvicorn main:app --host 0.0.0.0 --port 8000 Restart=always [Install] WantedBy=multi-user.target
-
启用并启动:
sudo systemctl daemon-reload sudo systemctl enable --now openclaw sudo systemctl status openclaw # 检查状态
-
-
配置反向代理(可选但推荐):使用Nginx对外提供HTTPS和域名访问。
server { listen 443 ssl; server_name api.yourdomain.com; ssl_certificate /path/to/your/cert.pem; ssl_certificate_key /path/to/your/key.key; location / { proxy_pass http://127.0.0.1:8000; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; } } -
设置防火墙:仅开放必要端口(如80, 443, 22)。
sudo ufw allow 8000 # 或你的自定义端口 sudo ufw enable
常见物流问题(故障排查)
- 端口占用:更改
PORT环境变量或使用--port参数。 - 依赖冲突:确保在虚拟环境中安装,或尝试
pip install --upgrade -r requirements.txt。 - API密钥错误:检查密钥是否复制完整,是否有模型调用权限。
- 服务无法外网访问:检查云服务器的安全组/防火墙规则,确保端口已开放。
核心价值与提醒
- 成本可控:直接使用国内模型,无需国际支付和代理。
- 数据隐私:对话数据经由你配置的模型服务商,不经过OpenAI。
- 灵活切换:通过修改
.env文件,可随时在阿里云、DeepSeek等模型间切换,无需改动应用代码。 - 关注计费:OpenClaw本身免费,但背后调用的模型服务(如阿里云灵积)会按token产生费用,请关注其定价。
你的私有化“AI网关”已经搭建完毕!你可以开始让你的各类AI应用,通过这个统一的接口,调用你心仪的大模型了,部署过程如有具体卡点,欢迎提供更多细节,祝部署顺利!