您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
业界 正文
发私信给二维马晓宁
发送

0

FlagOS 镜像登陆腾讯云 HAI社区,快速部署OpenClaw 实现“养虾”自由

本文作者: 二维马晓宁   2026-03-02 18:42
导语:可快速在加速卡上运行FlagOS + OpenClaw,实现小模型驱动智能体执行。

以往大家习惯将 AI 能力依赖于公有云服务,而随着 OpenClaw 等智能体工具的快速普及,不管是个人开发者还是企业更需要一个 7×24 小时运行在本地、可直接响应指令的 “数字员工”。但云端方案存在的数据隐私风险与持续高昂的 API、Token 成本,让工业级智能体在规模化落地时面临瓶颈,独立部署大模型服务已成为企业构建自主可控 AI 能力的必然选择。


众智FlagOS 是一款完全开源的 AI 系统软件栈,支持多款异构 AI 芯片,可让 AI 模型与智能体轻松实现快速部署。本次 FlagOS 联合腾讯云 HAI(面向AI和科学计算的容器镜像中心),将 Qwen3-4B-hygon-flagos 模型镜像正式上线腾讯云 HAI 社区,开发者可直接拉取使用。基于该镜像,可快速在加速卡上运行FlagOS + OpenClaw,实现小模型驱动智能体执行,为企业和开发者从公有云 API 转向自建本地 AI 服务提供了可落地的实践方案。

安装及测试过程

基于 FlagOS 系统软件栈的跨芯能力,众智 FlagOS 社区把 Qwen3-4B 适配至多款GPU硬件。以下内容重点介绍如何部署与配置 FlagOS 版 Qwen3-4B的过程,仅用于复现实验结果,不影响对 Agent 能力的判断。

1. 安装Qwen3-4B-hygon-flagos

a. 首先,从 HAI 社区平台找到 Qwen3-4B-hygon-FlagOS,根据README.md拉取模型并启动服务。

以 ModelScope为例,下载模型权重

Plain Text
pip install modelscope
modelscope download --model Qwen/Qwen3-4B --local_dir /share/Qwen3-4B

b. 点击【部署当前镜像】获取镜像拉取命令,从 HAI 社区拉取镜像

Plain Text
docker pull haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0

c. 通过下面的代码,启动容器。

这段代码可直接复制使用,也可以根据需要修改容器名,即在第4行--name=flagos对 name 进行修改。

SQL
#Container Startup

docker run -it \
  --name=flagos \
  --network=host \
  --privileged \
  --ipc=host \
  --shm-size=16G \
  --memory="512g" \
  --ulimit stack=-1:-1 \
  --ulimit memlock=-1:-1 \
  --cap-add=SYS_PTRACE \
  --security-opt seccomp=unconfined \
  --device=/dev/kfd \
  --device=/dev/dri \
  --group-add video \
  -u root \
  -v /opt/hyhal:/opt/hyhal \
  -v /share:/share \
  haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0 \
  /bin/bash

d. 进入容器(如果上一步修改了容器名,这里要将flagos对 name 进行修改。

Plain Text
docker exec -it flagos bash

e. 启动服务

Plain Text
flagscale serve qwen3

2. 安装配置OpenClaw

安装过程: 参见:https://github.com/openclaw/openclaw?spm=5176.28103460.0.0.696675514ZMILC , 通过源码方式,安装 OpenClaw。

Python
git clone https://github.com/openclaw/openclaw.git
cd openclaw

pnpm install
pnpm ui:build # auto-installs UI deps on first run
pnpm build

pnpm openclaw onboard --install-daemon

# Dev loop (auto-reload on TS changes)
pnpm gateway:watch

配置过程:

a. 访问链接以下链接:https://cloud.tencent.com/developer/article/2625144,文中有给出通用的"模型配置"文件格式,可以直接套用,套用后命令如下。

需要注意的是,配置本地模型时,厂商一定是加速推理工具如vllm。

SQL
pnpm openclaw config set 'models.providers.vllm_local' --json '{
  "baseUrl": "http://1.15.51.106:9033/v1",
  "apiKey": "anykey", #key不可为空,如果原来模型没有配置key,任意填写即可
  "api": "openai-completions",
  "models": [
    { "id": "Qwen3-4B-hygon-flagos", "name": "远程模型" }
  ]
}'

执行之后出现如下信息提示:

FlagOS 镜像登陆腾讯云 HAI社区,快速部署OpenClaw 实现“养虾”自由 

启用并设置为默认模型

Plain Text
合并配置模型
pnpm openclaw config set models.mode merge

   

 

Plain Text
切换为当前模式
pnpm openclaw models set vllm_local/Qwen3-4B-hygon-flagos

   

FlagOS 镜像登陆腾讯云 HAI社区,快速部署OpenClaw 实现“养虾”自由 

可以看到当前默认模型已经切换为 Qwen3-4B-hygon-flagos。

b. 执行下面代码,可以看到模型已经切换完成。

Plain Text
pnpm openclaw configure

  

FlagOS 镜像登陆腾讯云 HAI社区,快速部署OpenClaw 实现“养虾”自由 

可以看到模型已经切换完成。

3. 配置 channel 为QQ

参考文档: https://cloud.tencent.com/developer/article/2626045,这部分需要替换为自己的ID和secret。配置完成后,进行以下操作:

a. 启动openclaw网关, 命令如下:

Plain Text
pnpm openclaw gateway

b. 启动成功后,您可以在QQ软件中尝试和已经打通OpenClaw的QQ机器人进行单独聊天,或者在群里与QQ机器人进行对话。如果QQ机器人能够以AI的方式对话,则说明您已经成功完成OpenClaw应用接入QQ机器人。

FlagOS 镜像登陆腾讯云 HAI社区,快速部署OpenClaw 实现“养虾”自由 

接下来您就可以开始进一步探索OpenClaw接入QQ机器人之后的更多使用场景。

趋势展望

这次在 OpenClaw 连接QQ的场景中对 Qwen3-4B-hygon-flagos 进行了测试,发现Agent 的能力边界正在发生转移。

 关键信号:

• 小模型开始进入 Agent 执行层
Qwen3-4B-hygon-flagos 已经可以在 OpenClaw 中稳定承担指令理解、工具调用、本地文件操作和协作入口控制等任务。这意味着,小模型第一次从“对话组件”走进了 Agent 的执行中枢。

• 真正的瓶颈不在模型,而在系统
无论 4B 还是更大的模型,在文档写入等能力上同样受限,说明 Agent 的上限越来越多地由平台权限、接口设计和工程抽象决定,而不是模型本身。 

如果你要的是一个能在本地跑、能调工具、能接企业系统的 Agent 内核,
4B 级模型,已经开始成为一个现实且合理的默认选项。


#雷峰网(公众号:雷峰网)

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说