logo
0
0
WeChat Login
编辑文件 README.md

🌐 云原生部署说明(适用于 cnb.cool 平台)

🧩 功能说明 • 使用 .cnb.yml 配置后,每次 push 自动安装依赖并启动 Gradio Web UI; • 自动挂载 /root/.cache/huggingface/hub/ 缓存目录,避免 HuggingFace 模型重复下载; • 支持 GPU 自动加速(如支持 NVIDIA GPU 环境); • 在云端 VScode 中手动运行也可自动使用 GPU。

🛠 .cnb.yml 推荐配置

main: push: - docker: image: ghcr.io/swivid/f5-tts:main volumes: - /root/.cache/huggingface/hub/:copy-on-write runner: cpus: 16 tags: cnb:arch:amd64:gpu services: - vscode stages: - name: 安装依赖并启动 Gradio 应用 script: - pip install -e . - f5-tts_infer-gradio --host 0.0.0.0 --port 7860

$: vscode: - docker: image: ghcr.io/swivid/f5-tts:main volumes: - /root/.cache/huggingface/hub/:copy-on-write runner: cpus: 16 tags: cnb:arch:amd64:gpu services: - vscode stages: - name: 安装依赖并启动 Gradio 应用(开发模式) script: - pip install -e . - f5-tts_infer-gradio --host 0.0.0.0 --port 7860

🧪 手动运行指令(云端 VScode)

如进入的是开发容器,可手动运行以下命令启动:

pip install -e .

f5-tts_infer-gradio --host 0.0.0.0 --port 7860

📦 模型缓存目录挂载提示

模型首次运行时会下载 charactr/vocos-mel-24khz 和 SWivid/F5-TTS,缓存在:

/root/.cache/huggingface/hub/

你可以通过挂载 copy-on-write 持久化缓存,避免每次运行重新下载。

🌐 Gradio 服务访问方式

项目成功运行后,VScode 云端环境会监听端口 7860,你需手动映射端口以获取公网访问地址: 1. 点击上方 “PORTS” 标签页; 2. 找到 7860 端口,点击 Forward; 3. 页面将自动分配一个形如 https://xxx.cnb.run/ 的公网访问地址; 4. 点击即可访问 Gradio Web 界面。