命名空间: ai
功能: 统一模型网关,代理 OpenAI/DeepSeek/Gemini 等上游 API
部署节点: gpu-ampere01
litellm.ai.svc.cluster.local:4000litellm/ ├── README.md # 本文档 ├── docs/ │ ├── litellm-manual.md # 用户手册 │ └── deployment-standard.md # 标准化部署与维护手册 ├── manifests/ │ ├── litellm-standarized.yaml # 后端部署 (standardized) │ └── litellm-ui-deploy.yaml # UI 端部署 (中文版) └── scripts/ └── deploy.sh # 部署脚本
建议使用项目级的 Agent-MCP (Doops) 统一运维能力进行自动化部署。
部署指令: 向你的 AI 助手下发指令:
“使用 doops 的部署 skill 将 litellm 部署至远端节点”
AI 会自动根据全局 .agent/skills/deploy/SKILL.md 的指引,将代码同步至远端并在宿主机沙盒中安全拉起部署。
在开箱即用提供的 litellm-config.yaml 基础配置单中,默认搭载并代理了以下四个在 opencode-base 内广泛请求的模型名:
doubao-seed-2-0-code-preview-260215 (执行专属)doubao-seed-2-0-pro-260215 (规划专长)deepseek-v3glm-4-7如需外扩新模型,只需要遵循 ConfigMap 里的格式加一段映射,然后再跑一边发布脚本即可。
日常运维(如查看日志、重启服务、刷新 ConfigMap)请统一通过 doops ask 或 doops exec 指令完成。
所有的远端操作都将在 Agent 提供的极简沙盒环境内进行,杜绝向宿主机下发无状态的长连接。
详细维护文档请参见:标准化部署与维护手册