logo
0
0
WeChat Login
feat: 添加 Ollama 监控工具

Run gemma4 on Ollama via CNB

badge

在 CNB 中直接 使用 Ollama 运行 gemma4,预置模型,无需等待,零帧起步。

快速体验

通过云原生开发体验

  1. Fork 本仓库到自己的组织下
  2. 选择喜欢的分支,点击 云原生开发 启动远程开发环境
  3. 5~9 秒后,进入远程开发命令行,输入以下命令即可体验

${image} 为模型名称,如 gemma4:31b

ollama run ${image}

本仓库已内置模型列表

  • gemma4:31b

进阶

公网访问

PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。

接入 OpenClaw / Workbuddy

Ollama 兼容 OpenAI API 格式,可直接作为 OpenClaw 和 Workbuddy 的 LLM 后端使用:

  1. 暴露端口:在 PORTS 中添加 11434 并开启公网访问
  2. 获取 API 地址:公网地址格式为 https://<your-cnbdomain>:11434
  3. 配置客户端:在 OpenClaw / Workbuddy 中设置以下参数:
参数
API Base URLhttps://<your-cnbdomain>:11434/v1
Modelgemma4:31b
API Key填写任意值(如 ollama

Ollama 的 /v1/chat/completions/v1/models 端点兼容 OpenAI API 规范,开箱即用。

监控工具

内置 monitor.sh 一键查看 GPU 显存占用、API 地址及系统资源状态:

./monitor.sh # 显示全部信息(GPU + API + 系统) ./monitor.sh --gpu # 仅显示显存/GPU 状态 ./monitor.sh --api # 仅显示 API 地址信息 ./monitor.sh --watch # 持续刷新模式(每 3 秒,Ctrl+C 退出)

显示内容:

模块说明
🎮 GPU / 显存状态显卡型号、显存使用量/总量/空闲、GPU 利用率、功耗、温度、活跃进程
🌐 API 地址信息公网 API Base URL、Ollama 原生地址、Model 名称、API Key
💻 系统资源CPU 使用率、内存占用、磁盘用量