在 CNB 中直接 使用 Ollama 运行 gemma4,预置模型,无需等待,零帧起步。
Fork 本仓库到自己的组织下云原生开发 启动远程开发环境5~9 秒后,进入远程开发命令行,输入以下命令即可体验${image} 为模型名称,如
gemma4:31b
ollama run ${image}
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
Ollama 兼容 OpenAI API 格式,可直接作为 OpenClaw 和 Workbuddy 的 LLM 后端使用:
PORTS 中添加 11434 并开启公网访问https://<your-cnbdomain>:11434| 参数 | 值 |
|---|---|
| API Base URL | https://<your-cnbdomain>:11434/v1 |
| Model | gemma4:31b |
| API Key | 填写任意值(如 ollama) |
Ollama 的
/v1/chat/completions和/v1/models端点兼容 OpenAI API 规范,开箱即用。
内置 monitor.sh 一键查看 GPU 显存占用、API 地址及系统资源状态:
./monitor.sh # 显示全部信息(GPU + API + 系统) ./monitor.sh --gpu # 仅显示显存/GPU 状态 ./monitor.sh --api # 仅显示 API 地址信息 ./monitor.sh --watch # 持续刷新模式(每 3 秒,Ctrl+C 退出)
显示内容:
| 模块 | 说明 |
|---|---|
| 🎮 GPU / 显存状态 | 显卡型号、显存使用量/总量/空闲、GPU 利用率、功耗、温度、活跃进程 |
| 🌐 API 地址信息 | 公网 API Base URL、Ollama 原生地址、Model 名称、API Key |
| 💻 系统资源 | CPU 使用率、内存占用、磁盘用量 |