在 CNB 中直接 使用 Ollama 运行 gpt-oss,预置模型,无需等待,零帧起步。
Fork 本仓库到自己的组织下云原生开发 启动远程开发环境5~9 秒后,进入远程开发命令行,输入以下命令即可体验${image} 为模型名称,如
gpt-oss:20b
ollama run ${image}
例如:
ollama run gpt-oss:20b
ollama run gpt-oss:120b
gpt-oss:20bgpt-oss:120b在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
安装Open WebUI连接Ollama
安装: docker pull ghcr.io/open-webui/open-webui:main
启动: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
在 PORTS 中将 Ollama 暴露到外网,添加 3000 端口即可。
打开公网地址,在管理员修改设置中输入Ollama的公网地址。