环境准备
系统要求
- 操作系统:Ubuntu 20.04+ / macOS 10.15+ / Windows 10+(推荐Linux)
- Python版本:Python 3.8 - 3.11
- 内存:至少8GB RAM(推荐16GB+)
- 存储:至少10GB可用空间
硬件建议
- CPU:支持AVX指令集的现代处理器
- GPU(可选但推荐):
- NVIDIA GPU(CUDA 11.7/11.8)
- 显存:8GB+(用于本地模型部署)
基础安装
使用pip安装(推荐)
source openclaw_env/bin/activate # Linux/macOS # 或 openclaw_env\Scripts\activate # Windows # 2. 安装OpenClaw核心包 pip install openclaw-core # 3. 安装可选依赖 pip install openclaw[nlp] # 自然语言处理功能 pip install openclaw[vision] # 计算机视觉功能 pip install openclaw[audio] # 音频处理功能
从源码安装
# 1. 克隆仓库 git clone https://github.com/OpenClaw/OpenClaw.git cd OpenClaw # 2. 安装依赖 pip install -r requirements.txt # 3. 开发模式安装 pip install -e .
配置设置
初始化配置
# 生成配置文件 openclaw init --config-dir ./config # 编辑配置文件 vim ./config/config.yaml
基础配置示例
# config.yaml system: name: "OpenClaw Assistant" version: "1.0" model: default: "gpt-3.5-turbo" # 或本地模型路径 local_model_path: "./models" api: openai_api_key: "sk-..." # 可选,使用OpenAI API时 local_server: "http://localhost:8000" storage: database: "sqlite:///./data/openclaw.db" cache_dir: "./cache"
模型部署(可选)
使用本地模型
# 1. 下载模型(示例:ChatGLM3) openclaw download-model chatglm3-6b # 2. 启动本地模型服务 openclaw serve-model \ --model chatglm3-6b \ --device cuda:0 \ --port 8000
使用Ollama(推荐)
# 1. 安装Ollama curl -fsSL https://ollama.com/install.sh | sh # 2. 拉取模型 ollama pull llama2:7b ollama pull qwen2.5:7b # 3. 运行模型 ollama run llama2:7b
快速启动
命令行模式
# 启动交互式命令行 openclaw chat # 或直接询问 openclaw query "你好,介绍一下OpenClaw的功能"
Web界面
# 启动Web服务 openclaw web --host 0.0.0.0 --port 7860 # 浏览器访问:http://localhost:7860
API服务
# 启动REST API openclaw api --port 5000 # API端点 # POST /v1/chat/completions # GET /v1/models
插件安装
# 安装官方插件 pip install openclaw-plugins # 列出可用插件 openclaw plugins list # 安装特定插件 openclaw plugins install calculator openclaw plugins install web-search
验证安装
运行测试
# test_openclaw.py
from openclaw import OpenClaw
# 初始化
assistant = OpenClaw()
# 简单对话
response = assistant.chat("你好,世界!")
print(response)
# 检查功能
print("可用插件:", assistant.list_plugins())
print("已加载模型:", assistant.list_models())
命令行验证
# 检查版本 openclaw --version # 检查系统状态 openclaw status # 查看帮助 openclaw --help
常见问题解决
安装失败
# 升级pip pip install --upgrade pip # 清理缓存 pip cache purge # 使用清华镜像 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple openclaw-core
CUDA问题
# 检查CUDA版本 nvidia-smi # 安装对应版本的PyTorch pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
内存不足
# 使用量化模型 openclaw download-model qwen2.5-7b-int4 # 调整batch size openclaw serve-model --model llama2-7b --max-batch-size 1
高级配置
Docker部署
# 拉取镜像 docker pull openclaw/openclaw:latest # 运行容器 docker run -p 7860:7860 \ -v $(pwd)/data:/app/data \ openclaw/openclaw:latest
Kubernetes部署
# k8s-deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: openclaw
spec:
replicas: 2
template:
spec:
containers:
- name: openclaw
image: openclaw/openclaw:latest
ports:
- containerPort: 7860
下一步
- 探索文档:访问 docs.openclaw.org
- 加入社区:GitHub Discussions / Discord
- 贡献代码:查看CONTRIBUTING.md
- 自定义开发:参考插件开发指南
获取帮助
- 📖 文档:https://docs.openclaw.org
- 🐛 问题报告:GitHub Issues
- 💬 社区讨论:GitHub Discussions
- 📧 邮箱:support@openclaw.org
温馨提示:首次启动时可能需要下载模型文件,请确保网络连接稳定且有足够的存储空间,建议在Linux系统上部署以获得最佳性能!

版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。