以下是详细的网络要求说明

openclaw 中文openclaw 1

核心网络要求总结

  1. 部署阶段(安装时):需要访问互联网以下载代码、模型和依赖包。
  2. 运行阶段(使用时)
    • 开发/测试模式:通常只需本地回环地址(127.0.0.1) 或局域网访问,无需公网。
    • 生产/API服务模式:需要规划内网或公网访问策略,并确保相关服务端口可被客户端访问。

分阶段详细要求

安装与部署

此阶段主要发生在克隆仓库和安装依赖时。

以下是详细的网络要求说明-第1张图片-OpenClaw下载中文-AI中文智能体

  • 必需条件

    • 稳定的互联网连接:用于从 GitHub 克隆 opencompass/openclaw 仓库。
    • 访问PyPI和Conda仓库:用于下载Python依赖包(如 torch, transformers, gradio 等)。
    • 访问模型仓库:需要从 Hugging Face HubModelScope 下载所需的预训练大语言模型(LLM)和嵌入模型,这是对网络要求最高的一步,因为模型文件通常很大(几GB到几十GB)。
      • Hugging Face: https://huggingface.co
      • ModelScope: https://modelscope.cn
  • 网络优化建议

    • 使用国内镜像源:如果访问海外网络较慢,可以配置:
      • PyPI镜像:如清华源、阿里云源。
      • Conda镜像:同样可使用清华源。
      • 模型镜像:对于Hugging Face模型,可使用 huggingface-cli--mirror 参数指定国内镜像(如 modelscope),OpenCompass/OpenClaw项目本身已深度集成ModelScope,这是一个很好的国内替代方案。
    • 代理设置:如果处于受控网络环境,可能需要配置 http_proxyhttps_proxy 环境变量。

运行与访问

此阶段发生在启动OpenClaw的Web服务或API服务后。

  • 服务端内部通信

    • OpenClaw的各个组件(如LLM服务、检索服务、Web UI)可能通过本地端口进行通信,需要确保这些端口在服务器内部可用,无防火墙阻拦。
    • 如果你单独启动了某个模型的API服务(如 OllamavLLM),OpenClaw需要能通过 localhost:port 访问到它。
  • 客户端访问

    • Gradio Web UI:默认情况下,启动的Gradio服务会监听 0.0.1:7860,这意味着只有服务器本机可以通过浏览器访问 http://127.0.0.1:7860
    • 局域网访问:如果你希望同一网络下的其他设备访问,通常需要在启动命令中设置 server_name="0.0.0.0"
      python cli/webui.py --server-name 0.0.0.0 --server-port 7860

      你需要确保服务器的防火墙开放了7860端口,并且客户端能通过服务器的局域网IP(如 http://192.168.1.100:7860)访问。

    • 公网访问(慎用)
      • server_name 设置为 0.0.0 并通过路由器设置端口转发,可将服务暴露到公网。
      • 强烈不建议直接将Gradio服务暴露在公网,因为它可能缺乏足够的安全防护(如认证、HTTPS)。
      • 推荐的安全做法:使用 Nginx/Apache反向代理,并配置SSL证书(HTTPS)、身份验证和访问控制。
  • API服务访问

    • 如果OpenClaw以API模式部署(例如基于FastAPI),你需要关注其监听的端口(如 8000)。
    • 同样的,需要配置防火墙和网络规则,允许你的API客户端(如其他应用程序)访问该端口。

端口参考清单

在运行OpenClaw及其相关组件时,可能会涉及以下默认端口(具体以你的配置为准):

组件/服务 默认端口 说明
OpenClaw Gradio UI 7860 Web交互界面端口。
OpenClaw API Server 8000 如果提供独立的API服务。
Ollama 11434 本地运行LLM的常用服务。
vLLM API Server 8000, 8001 高性能LLM推理服务的API和监控端口。
Milvus / Qdrant 19530, 6333 向量数据库服务端口。

防火墙配置:在服务器或云主机的安全组中,你需要根据上述端口,有选择地开放入站规则

安装检查清单(网络部分)

  1. [ ] 安装前:测试能否正常访问 github.compypi.org 或国内镜像源、huggingface.comodelscope.cn
  2. [ ] 下载模型:确认有足够的带宽和存储空间下载大模型文件。
  3. [ ] 运行时
    • 如果仅本地使用:无需特殊网络配置。
    • 如果需要局域网访问:修改启动命令为 server_name="0.0.0.0",并在系统防火墙开放对应端口。
    • 如果需要公网访问:务必设置反向代理(Nginx)、HTTPS和访问密码。

对于大多数个人用户和开发测试场景,OpenClaw的安装需要较好的国际互联网访问能力(或善用国内镜像),而运行阶段主要在本地或内网,网络要求简单,生产环境部署则需要仔细规划网络架构、安全策略和端口配置。

标签: 高性能网络 可控管理

抱歉,评论功能暂时关闭!