在 CNB 中直接 使用 Ollama 运行 gemma4,预置模型,无需等待,零帧起步。
Fork 本仓库到自己的组织下云原生开发 启动远程开发环境5~9 秒后,进入远程开发命令行,输入以下命令即可体验${image} 为模型名称,如
gemma4:31b
ollama run ${image}
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
Ollama 兼容 OpenAI API 格式,可直接作为 OpenClaw 和 Workbuddy 的 LLM 后端使用:
PORTS 中添加 11434 并开启公网访问https://<your-cnbdomain>:11434| 参数 | 值 |
|---|---|
| API Base URL | https://<your-cnbdomain>:11434/v1 |
| Model | gemma4:31b |
| API Key | 填写任意值(如 ollama) |
Ollama 的
/v1/chat/completions和/v1/models端点兼容 OpenAI API 规范,开箱即用。