可直接使用的在线演示系统 | Discord | 飞书群
本演示系统为 MiniCPM-o 4.5 模型训练团队官方提供的演示系统。本演示系统使用 PyTorch + CUDA 推理后端,结合简易的前后端设计,旨在以透明、简洁、无性能损失的方式,全面地演示 MiniCPM-o 4.5 的音视频全模态全双工能力。
MiniCPM-o 4.5 是 MiniCPM-o 系列中最新、能力最强的模型。该模型基于 SigLip2、Whisper-medium、CosyVoice2 和 Qwen3-8B,以端到端方式构建,总参数量为 9B。它在性能上取得了显著提升,并引入了全双工多模态实时流式交互的新特性。MiniCPM-o 4.5 的主要亮点包括:
🔥 领先的视觉能力。 MiniCPM-o 4.5 在 OpenCompass 上取得了 77.6 的平均分,该评测涵盖 8 个主流基准测试。仅凭 9B 参数,它超越了 GPT-4o、Gemini 2.0 Pro 等广泛使用的商业模型,并接近 Gemini 2.5 Flash 的视觉语言能力。它在单一模型中同时支持 instruct 和 thinking 模式,更好地覆盖了不同用户场景下的效率与性能权衡。
🎙 强大的语音能力。 MiniCPM-o 4.5 支持中英双语实时语音对话,并可配置不同的音色。它具有更自然、更富表现力且更稳定的语音对话效果。模型还支持通过简单的参考音频片段实现声音克隆和角色扮演等趣味功能,克隆性能超越了 CosyVoice2 等强大的 TTS 工具。
🎬 全新的全双工主动式多模态实时流式交互能力。 作为新特性,MiniCPM-o 4.5 可以同时处理实时、连续的视频和音频输入流,同时以端到端方式生成并发的文本和语音输出流,互不阻塞。这使得 MiniCPM-o 4.5 能够同时看、听、说,创造流畅的实时全模态对话体验。除了被动响应外,模型还能进行主动交互,例如基于对实时场景的持续理解主动发起提醒或评论。
💪 强大的 OCR 能力、高效率及其他。 延续 MiniCPM-V 系列的优势视觉能力,MiniCPM-o 4.5 可以高效处理高分辨率图像(最高 180 万像素)和高帧率视频(最高 10fps),支持任意宽高比。它在 OmniDocBench 端到端英文文档解析中达到了最先进的性能,超越了 Gemini-3 Flash 和 GPT-5 等商业模型,以及 DeepSeek-OCR 2 等专业工具。它还具有可信赖的行为,在 MMHal-Bench 上匹配 Gemini 2.5 Flash,并支持超过 30 种语言的多语言能力。
💫 易于使用。 MiniCPM-o 4.5 可以通过多种方式轻松使用:基本用法推荐以 100% 精度使用 PyTorch + Nvidia GPU 推理。其他端侧适配包括:(1) llama.cpp 和 Ollama 支持在本地设备上进行高效 CPU 推理;(2) 提供 16 种尺寸的 int4 和 GGUF 格式量化模型;(3) vLLM 和 SGLang 支持高吞吐和内存高效推理;(4) FlagOS 支持统一多芯片后端插件。我们还开源了 Web 演示系统,可在 GPU、PC(如 MacBook)等本地设备上体验全双工多模态实时流式交互。
端到端全模态架构。 模态编码器/解码器与 LLM 通过隐藏状态以端到端方式密集连接。这实现了更好的信息流动和控制,也有助于在训练过程中充分利用丰富的多模态知识。
全双工全模态实时流式机制。 (1) 我们将离线的模态编码器/解码器转变为在线和全双工模式,用于流式输入/输出。语音 token 解码器以交错方式建模文本和语音 token,以支持全双工语音生成(即与新输入及时同步)。这也有助于更稳定的长语音生成(例如 > 1 分钟)。(2) 我们以毫秒为单位在时间线上同步所有输入和输出流,通过时分复用(TDM)机制在 LLM 骨干网络中进行全模态流式处理。它将并行的全模态流在小的周期性时间片内划分为顺序信息组。
主动交互机制。 LLM 持续监控输入的视频和音频流,并以 1Hz 的频率决定是否说话。这种高频率的决策机制结合全双工特性,是实现主动交互能力的关键。
可配置的语音建模设计。 我们继承了 MiniCPM-o 2.6 的多模态系统提示词设计,包括传统的文本系统提示词和新的音频系统提示词来确定助手音色。这使得在推理时可以克隆新音色并进行语音对话中的角色扮演。
| 模式 | 特点 | 输入输出模态 | 范式 |
|---|---|---|---|
| Turn-based Chat (轮次对话) | 低延迟流式交互,按钮触发回复,支持离线视频、音频理解分析,回复正确性好,基础能力强 | 音频+文本+视频输入,音频+文本输出 | 轮次对话范式 |
| Half-Duplex Audio (半双工语音) | VAD 自动检测语音边界,无需按钮即可进行语音通话,语音生成质量更高,回复准确性强,用户获得感好 | 语音输入,文本+语音输出 | 半双工范式 |
| Omnimodal Full-Duplex (全模态全双工) | 全模态全双工实时交互,视觉语音输入、语音输出同时发生,模型完全自主决定说话时机,前沿能力强大 | 视觉+语音输入,文本+语音输出 | 全双工范式 |
| Audio Full-Duplex (语音全双工) | 语音全双工实时交互,语音输入和语音输出同时发生,模型完全自主决定说话时机,前沿能力强大 | 语音输入,文本+语音输出 | 全双工范式 |
目前支持的 4 种模式共享同一个模型实例,支持毫秒级热切换(< 0.1ms)。
其他特性:

Frontend (HTML/JS)
| HTTPS / WSS
Gateway (:8006, HTTPS)
| HTTP / WS (internal)
Worker Pool (:22400+)
+-- Worker 0 (GPU 0)
+-- Worker 1 (GPU 1)
+-- ...
FFmpeg 用于视频帧提取 和 推理结果可视化。更多信息请访问 FFmpeg 官网。
macOS (Homebrew):
brew install ffmpeg
Ubuntu/Debian:
sudo apt update && sudo apt install ffmpeg
验证安装:
ffmpeg -version
1. 安装Python 3.10
推荐使用 miniconda 安装 Python 3.10。
mkdir -p ./miniconda3_install_tmp
# 下载 miniconda3 安装脚本
wget https://repo.anaconda.com/miniconda/Miniconda3-py310_25.11.1-1-Linux-x86_64.sh -O ./miniconda3_install_tmp/miniconda.sh
# 将 miniconda3 安装到项目目录下
bash ./miniconda3_install_tmp/miniconda.sh -b -u -p ./miniconda3
安装完成后,会得到一个空的 base 环境,激活这个 base 环境,base 环境中默认为 Python 3.10。
source ./miniconda3/bin/activate
python --version # 应显示 3.10.x
2. 安装 MiniCPM-o 4.5 所需的依赖
使用项目目录下的 install.sh 安装依赖是最快的,它会在项目目录下的 .venv 中创建一个名为 base 的venv虚拟环境,并在其中安装所有的依赖。
source ./miniconda3/bin/activate
bash ./install.sh
如果网络良好,整个安装过程大约花费 5 分钟。如果你处在中国,可以考虑使用第三方 PyPi 镜像源,例如清华镜像源。
您也可以手动安装依赖,分 2 步:
# 首先准备好一个空的 python 3.10 环境
source ./miniconda3/bin/activate
python -m venv .venv/base
source .venv/base/bin/activate
# 安装 PyTorch。
pip install "torch==2.8.0" "torchaudio==2.8.0"
# 安装其余依赖。
pip install -r requirements.txt
3. 创建配置文件
将项目目录下的 config.example.json 复制为 config.json。
cp config.example.json config.json
模型路径(model_path),默认使用 openbmb/MiniCPM-o-4_5,如果你可以访问 huggingface,无需修改,将会自动从 huggingface 拉取模型。
(可选) 如果你习惯于下载模型权重到固定位置,或无法访问 huggingface,可以修改 model_path 为你的模型路径。
# 安装huggingface cli
pip install -U huggingface_hub
# 下载模型
huggingface-cli download openbmb/MiniCPM-o-4_5 --local-dir /path/to/your/MiniCPM-o-4_5
如果无法访问 huggingface,可以使用以下两种方式提前下载模型。
pip install -U huggingface_hub
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download openbmb/MiniCPM-o-4_5 --local-dir /path/to/your/MiniCPM-o-4_5
pip install modelscope
modelscope download --model OpenBMB/MiniCPM-o-4_5 --local_dir /path/to/your/MiniCPM-o-4_5
修改 "gateway_port": 8006 即可改变部署的端口,默认为 8006。
4. 启动服务
CUDA_VISIBLE_DEVICES=0,1,2,3 bash start_all.sh
服务启动后访问 https://localhost:8006 即可。自签名证书会触发浏览器警告,点"高级"→"继续访问"。
5. torch.compile 加速
在 A100、RTX 4090 等上一代 GPU 上,全模态全双工(Omni Full-Duplex)模式的单 unit 计算耗时约 0.9s,接近了 1 秒的实时阈值,会出现明显卡顿。torch.compile 通过 Triton 将核心子模块编译为优化后的 GPU kernel,可将计算耗时降至约 0.5s,满足实时要求,实现无卡顿的流畅交互。
开启方式分为三步:
5a. 在 config.json 中启用编译:
{ "service": { "compile": true } }
5b. 运行预编译脚本(一次性,约 15 分钟):
CUDA_VISIBLE_DEVICES=0 TORCHINDUCTOR_CACHE_DIR=./torch_compile_cache .venv/base/bin/python precompile.py
预编译会生成优化后的 Triton kernel 并保存到 ./torch_compile_cache 目录(start_all.sh 会从 TORCHINDUCTOR_CACHE_DIR 读取编译缓存)。该缓存持久存储在磁盘上,后续所有启动(包括进程重启)都会自动加载,无需重复编译。
5c. 启动服务:
CUDA_VISIBLE_DEVICES=0,1,2,3 bash start_all.sh
Worker 启动时自动从 ./torch_compile_cache 加载已缓存的 kernel。有缓存时加载约需 5 分钟。
CUDA_VISIBLE_DEVICES=0,1 bash start_all.sh # 指定 GPU
bash start_all.sh --http # 降级 HTTP(不推荐,麦克风/摄像头 API 需要 HTTPS)
手动启动(分步):
# Worker(每张 GPU 一个)
CUDA_VISIBLE_DEVICES=0 PYTHONPATH=. .venv/base/bin/python worker.py --worker-index 0 --gpu-id 0
# Gateway
PYTHONPATH=. .venv/base/bin/python gateway.py --port 10024 --workers localhost:22400
5. 停止服务:
pkill -f "gateway.py|worker.py"
你也可以通过 Docker 运行本服务。这种方式将所有依赖打包在一个镜像中,只需挂载一个工作目录即可启动。
前置条件:
nvidia-docker)1. 构建镜像:
docker build -t minicpm-o-demo .
2. 准备工作目录:
创建一个工作目录,放入模型权重和可选的配置文件:
mkdir -p my-workspace/models
# 复制或软链接模型权重
ln -s /path/to/MiniCPM-o-4_5 my-workspace/models/MiniCPM-o-4_5
# (可选)自定义配置 —— model_path 应指向 /workspace/models/MiniCPM-o-4_5
cp config.example.json my-workspace/config.json
工作目录结构:
my-workspace/
├── models/MiniCPM-o-4_5/ # 模型权重(必需)
├── config.json # 自定义配置(可选,不提供则使用默认值)
├── certs/ # TLS 证书(可选,用于 HTTPS)
├── data/ # 自动创建:持久化会话数据
└── torch_compile_cache/ # 自动创建:编译缓存
3. 使用 docker run 运行:
docker run --gpus all -p 8006:8006 \
-v $(pwd)/my-workspace:/workspace \
minicpm-o-demo
3(替代方案). 使用 Docker Compose 运行:
编辑 docker-compose.yml 设置工作目录路径,然后:
docker compose up -d
容器支持的环境变量:
| 变量 | 默认值 | 说明 |
|---|---|---|
GATEWAY_PROTO | http | http 或 https |
GATEWAY_PORT | 来自 config(8006) | Gateway 监听端口 |
CUDA_VISIBLE_DEVICES | 所有 GPU | 逗号分隔的 GPU 索引 |
本 Demo 同时支持基于 llama.cpp-omni 的 C++ 推理后端,可以在更低配置的消费级设备上运行 MiniCPM-o 4.5。详见 Comni 分支。
提供 Windows 和 macOS 的开箱即用安装包,前往 llama.cpp-omni Releases 下载。
项目代码结构
minicpmo45_service/
├── config.json # 服务配置(从 config.example.json 复制,gitignored)
├── config.example.json # 配置示例(完整字段 + 默认值)
├── config.py # 配置加载逻辑(Pydantic 定义 + JSON 加载)
├── requirements.txt # Python 依赖
├── start_all.sh # 一键启动脚本
│
├── gateway.py # Gateway(路由、排队、WS 代理)
├── worker.py # Worker(推理服务)
├── gateway_modules/ # Gateway 业务模块
│
├── core/ # 核心封装
│ ├── schemas/ # Pydantic Schema(请求/响应)
│ └── processors/ # 推理处理器(UnifiedProcessor)
│
├── MiniCPMO45/ # 模型核心推理代码
├── static/ # 前端页面
├── resources/ # 资源文件(参考音频等)
├── tests/ # 测试
└── tmp/ # 运行时日志和 PID 文件
前端路由设定
所有配置集中在 config.json(从 config.example.json 复制)。
config.json 已 gitignore,不会被提交。
配置优先级:CLI 参数 > config.json > Pydantic 默认值
| 分组 | 字段 | 默认值 | 说明 |
|---|---|---|---|
| model | model_path | (必填) | HuggingFace 格式模型目录 |
| model | pt_path | null | 额外 .pt 权重覆盖 |
| model | attn_implementation | "auto" | Attention 实现:"auto"/"flash_attention_2"/"sdpa"/"eager" |
| audio | ref_audio_path | assets/ref_audio/ref_minicpm_signature.wav | 默认 TTS 参考音频 |
| audio | playback_delay_ms | 200 | 前端音频播放延迟(ms),越大越平滑但延迟越高 |
| audio | chat_vocoder | "token2wav" | Chat 模式 vocoder:"token2wav"(默认)或 "cosyvoice2" |
| service | gateway_port | 8006 | Gateway 端口 |
| service | worker_base_port | 22400 | Worker 起始端口 |
| service | max_queue_size | 100 | 最大排队请求数 |
| service | request_timeout | 300.0 | 请求超时(秒) |
| service | compile | false | torch.compile 加速 |
| service | data_dir | "data" | 数据目录 |
| duplex | pause_timeout | 60.0 | Duplex 暂停超时(秒) |
最小配置(只需模型路径):
{"model": {"model_path": "/path/to/model"}}
# Worker
python worker.py --model-path /alt/model --pt-path /alt/weights.pt --ref-audio-path /alt/ref.wav
# Gateway
python gateway.py --port 10025 --workers localhost:22400,localhost:22401 --http
| 资源 | Token2Wav(默认) | + torch.compile |
|---|---|---|
| 显存(每 Worker,初始化完成后) | ~21.5 GB | ~21.5 GB |
| 模型加载时间 | ~16s | ~16s + ~5 min(有缓存)/ ~15 min(无缓存) |
| 模式切换延迟 | < 0.1ms | < 0.1ms |
| Omni Full-Duplex 单 unit 延迟(A100) | ~0.9s | ~0.5s |
# Schema 单元测试(无需 GPU)
PYTHONPATH=. .venv/base/bin/python -m pytest tests/test_schemas.py -v
# Processor 测试(需要 GPU)
CUDA_VISIBLE_DEVICES=0 PYTHONPATH=. .venv/base/bin/python -m pytest tests/test_chat.py tests/test_streaming.py tests/test_duplex.py -v -s
# API 集成测试(需要先启动服务)
PYTHONPATH=. .venv/base/bin/python -m pytest tests/test_api.py -v -s