在 CNB 中直接 使用 Ollama 运行 qwen3-embedding,预置模型,无需等待,零帧起步。
Fork 本仓库到自己的组织下云原生开发 启动远程开发环境5~9 秒后,进入远程开发命令行,输入以下命令即可体验<<<<<<< HEAD <<<<<<< HEAD
{image} 为模型名称,如
qwen3-embedding:4bba8320f (feat: update qwen3-embedding:4b model) ======= ${image} 为模型名称,如
qwen3-embedding:8b5a90cfd (feat: update qwen3-embedding:8b model)
ollama run ${image}
<<<<<<< HEAD <<<<<<< HEAD
ba8320f (feat: update qwen3-embedding:4b model)
5a90cfd (feat: update qwen3-embedding:8b model)
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。