logo
0
0
WeChat Login
WorkBuddy AI<assistant@workbuddy.ai>
Initial commit: LTX-Video 2.3 inference service with Gradio UI

LTX-Video 2.3 推理服务

基于 Lightricks/LTX-2 开源项目部署的 LTX-Video 2.3 视频生成模型推理服务。

功能特性

  • 🎬 LTX-Video 2.3 (22B) 文本/图像生成视频
  • 🖥️ Gradio Web UI — 浏览器直接使用
  • 🃏 GPU 灵活切换 — 通过 .cnb.yml 中的 runner tags 切换 L40 / H20
  • 🐳 Docker 容器化 — 一键构建,制品库托管镜像
  • 📦 CNB 流水线 — 自动构建 + 推送镜像 + 部署

GPU 显存需求

配置最低推荐
VRAM32GB+48GB+ (A100/H100/L40/H20)
系统内存32GB64GB+
存储100GB200GB+ SSD
CUDA11.8+12.1+

GPU 切换说明

.cnb.yml 中修改 runner.tags 即可切换显卡:

# 48GB 通用 GPU(推荐) tags: cnb:arch:amd64:gpu # L40 48GB tags: cnb:arch:amd64:gpu:L40 # H20 96GB(不推荐,停产) tags: cnb:arch:amd64:gpu:H20

快速开始

本地运行

# 1. 构建镜像 docker build -t ltx-video-2.3 . # 2. 运行(需要 GPU) docker run --gpus all -p 7860:7860 \ -v ./models:/app/models \ ltx-video-2.3 # 3. 打开浏览器访问 http://localhost:7860

CNB 流水线部署

  1. Fork 或导入本仓库到 CNB
  2. 流水线自动触发构建镜像
  3. 制品库推送完成后自动部署

目录结构

ltx-video-2.3/ ├── Dockerfile # 容器镜像定义 ├── app.py # Gradio Web UI + 推理逻辑 ├── requirements.txt # Python 依赖 ├── .cnb.yml # CNB 流水线配置 ├── .dockerignore # Docker 构建排除 └── README.md

API 使用示例

from ltx_pipelines import TI2VidTwoStagesPipeline import torch pipeline = TI2VidTwoStagesPipeline.from_pretrained( "Lightricks/LTX-2.3-22B", torch_dtype=torch.bfloat16, ) pipeline.enable_model_cpu_offload() video = pipeline( prompt="A sunset over the ocean", negative_prompt="blurry, low quality", num_inference_steps=50, guidance_scale=3.5, ).videos[0]

License

Apache 2.0 / LTX-Video 社区开源协议