在 CNB 中直接 使用 Ollama 运行 qwen3.6,预置模型,无需等待,零帧起步。
Fork
云原生开发
5~9
${image} 为模型名称,如 qwen3.6:35b-a3b
qwen3.6:35b-a3b
ollama run ${image}
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
PORTS