面向 DeepSeek V4 的终端原生编程智能体:100 万 token 上下文、思考模式流式推理、前缀缓存感知。自包含 Rust 二进制发布——开箱即带 MCP 客户端、沙箱和持久化任务队列。
deepseek 是自包含 Rust 二进制——运行时不依赖 Node.js 或 Python。
下面几种方式装出来的是同一套二进制,按你已有的工具链选一个即可:
# 1. npm —— 已装 Node 的最方便方式。npm 包只是一个下载器,
# 会从 GitHub Releases 拉取对应平台的预编译二进制,
# 并不会让 deepseek 本身依赖 Node 运行时。
npm install -g deepseek-tui
# 2. Cargo —— 无需 Node。
cargo install deepseek-tui-cli --locked # `deepseek` 入口
cargo install deepseek-tui --locked # `deepseek-tui` TUI 二进制
# 3. Homebrew —— macOS 包管理器。
brew tap Hmbown/deepseek-tui
brew install deepseek-tui
# 4. 直接下载 —— 无需任何工具链。
# https://github.com/Hmbown/DeepSeek-TUI/releases
# 覆盖 Linux x64/ARM64、macOS x64/ARM64、Windows x64
# 5. Docker —— 预构建发布镜像。
docker volume create deepseek-tui-home
docker run --rm -it \
-e DEEPSEEK_API_KEY="$DEEPSEEK_API_KEY" \
-v deepseek-tui-home:/home/deepseek/.deepseek \
-v "$PWD:/workspace" \
-w /workspace \
ghcr.io/hmbown/deepseek-tui:latest
中国大陆访问较慢时,npm 可加
--registry=https://registry.npmmirror.com, 或使用下方的 Cargo 镜像。下载安全:官方二进制只发布在
https://github.com/Hmbown/DeepSeek-TUI/releases。手动下载时请校验 SHA-256 manifest,并避免相似仓库名或搜索结果里的镜像站。详见 下载安全与校验。
已经安装过?按你的安装方式更新:
deepseek update # release 二进制更新器
npm install -g deepseek-tui@latest # npm 包装器
brew update && brew upgrade deepseek-tui
cargo install deepseek-tui-cli --locked --force
cargo install deepseek-tui --locked --force

DeepSeek TUI 是一个完全运行在终端里的编程智能体。它让 DeepSeek 前沿模型直接访问你的工作区:读写文件、运行 shell 命令、搜索浏览网页、管理 git、调度子智能体——全部通过快速、键盘驱动的 TUI 完成。
它面向 DeepSeek V4(deepseek-v4-pro / deepseek-v4-flash)构建,原生支持 100 万 token 上下文窗口和思考模式流式输出。
--model auto / /model auto 每轮自动选择模型和推理强度rlm_open/rlm_eval)—— 持久化 REPL 会话用于批量分析;使用带界面的辅助函数(peek、search、chunk、sub_query_batch)运行低成本 deepseek-v4-flash 子任务/statusline footer chip 显示最近轮次缓存前缀的稳定程度Shift+Tab 在 off → high → max 之间切换/restore 和 revert_turn,不影响项目自己的 .gitdeepseek serve --http 用于无界面智能体流程en、ja、zh-Hans、pt-BR,支持自动检测skill-creator、mcp-builder、documents、presentations、spreadsheets、pdf、feishu 等 starter skills/theme 实时切换deepseek(调度器 CLI)→ deepseek-tui(伴随二进制)→ ratatui 界面 ↔ 异步引擎 ↔ OpenAI 兼容流式客户端。工具调用通过类型化注册表(shell、文件操作、git、web、子智能体、MCP、RLM)路由,结果流式返回对话记录。引擎管理会话状态、轮次追踪、持久化任务队列和 LSP 子系统——它在下一步推理前将编辑后诊断反馈到模型上下文中。
DeepSeek TUI 可以同时调度多个子智能体并行运行——类似于并发任务队列:
agent_open 立即返回。子智能体获得独立的上下文和工具注册表,独立运行。父进程继续工作。<deepseek:subagent.done> 事件,包含摘要、证据列表和执行指标。父模型读取 summary 字段并整合结果。var_handle 引用。模型通过 handle_read 按切片、范围或 JSONPath 投影读取——保持父上下文精简。npm install -g deepseek-tui
deepseek --version
deepseek --model auto
预构建二进制覆盖 Linux x64、Linux ARM64(v0.8.8 起)、macOS x64、macOS ARM64 和 Windows x64。其他目标平台(musl、riscv64、FreeBSD 等)请见下方的从源码安装或 docs/INSTALL.md。
首次启动时会提示输入 DeepSeek API key。密钥保存到 ~/.deepseek/config.toml,在任意目录、IDE 终端和脚本中都能使用,不会触发系统密钥环弹窗。
也可以提前配置:
deepseek auth set --provider deepseek # 保存到 ~/.deepseek/config.toml
deepseek auth status # 显示当前活跃的凭证来源
export DEEPSEEK_API_KEY="YOUR_KEY" # 环境变量方式;需要在非交互式 shell 中使用请放入 ~/.zshenv
deepseek
deepseek doctor # 验证安装
轮换或移除密钥:
deepseek auth clear --provider deepseek。
如果你想要一个长期在线、可从手机控制的工作区,推荐使用腾讯云原生路径:
CNB 镜像/源码,腾讯云 Lighthouse 香港实例,飞书/Lark 长连接桥接,
以及可选的 EdgeOne 公网 HTTPS 边缘。运行时 API 必须绑定在 localhost;
不要通过 EdgeOne 暴露 /v1/*。
先看 docs/TENCENT_CLOUD_REMOTE_FIRST.md, 再按 docs/TENCENT_LIGHTHOUSE_HK.md 配置服务器。
使用 deepseek --model auto 或 /model auto 让 DeepSeek TUI 自行决定每轮需要多少模型和推理能力。
Auto 模式同时控制两个设置:
deepseek-v4-flash 或 deepseek-v4-prooff、high 或 max在真实请求发出之前,应用会先用关闭推理的 deepseek-v4-flash 进行一次小型路由调用。路由器审视最新请求和最近的上下文,然后为真实请求选定具体的模型和推理强度。简短/简单的轮次保持在 Flash + 关闭推理;编码、调试、发布、架构、安全审查或模糊的多步骤任务可升级到 Pro 和/或更高推理强度。
auto 是 DeepSeek TUI 本地行为。上游 API 永远不会收到 model: "auto",它只会收到为当前轮次选定的具体模型和推理强度设置。TUI 会显示选定的路由,成本跟踪按实际运行的模型计费。如果路由调用失败或返回无效答案,应用会回退到本地启发式规则。子智能体会继承 auto 模式,除非你为它们指定了显式模型。
需要可重复基准测试、严格控制成本上限或特定提供商/模型映射时,请使用固定模型或固定推理强度。
从 v0.8.8 起,npm i -g deepseek-tui 直接支持 glibc 系的 ARM64 Linux。你也可以从 Releases 页面 下载预编译二进制,放到 PATH 目录中。
如果在中国大陆访问 GitHub 或 npm 下载较慢,可以通过 Cargo 注册表镜像安装:
# ~/.cargo/config.toml
[source.crates-io]
replace-with = "tuna"
[source.tuna]
registry = "sparse+https://mirrors.tuna.tsinghua.edu.cn/crates.io-index/"
然后安装两个二进制(调度器在运行时会调用 TUI):
cargo install deepseek-tui-cli --locked # 提供推荐入口 `deepseek`
cargo install deepseek-tui --locked # 提供交互式 TUI 伴随二进制
deepseek --version
也可以直接从 GitHub Releases 下载预编译二进制。DEEPSEEK_TUI_RELEASE_BASE_URL 可用于镜像后的 release 资产。
Scoop 是一个 Windows 软件包管理器。DeepSeek TUI 已进入
Scoop main bucket,但该 manifest 独立更新,可能滞后于 GitHub/npm/Cargo
release。先运行 scoop update,安装后用 deepseek --version 核对版本:
scoop update
scoop install deepseek-tui
deepseek --version
如果需要最新版本,请优先使用 npm 或直接下载 GitHub Release 资产。
适用于任何 Tier-1 Rust 目标,包括 musl、riscv64、FreeBSD 以及尚无预编译包的 ARM64 发行版。
# Linux 构建依赖(Debian/Ubuntu/RHEL):
# sudo apt-get install -y build-essential pkg-config libdbus-1-dev
# sudo dnf install -y gcc make pkgconf-pkg-config dbus-devel
git clone https://github.com/Hmbown/DeepSeek-TUI.git
cd DeepSeek-TUI
cargo install --path crates/cli --locked # 需要 Rust 1.88+;提供 `deepseek`
cargo install --path crates/tui --locked # 提供 `deepseek-tui`
两个二进制都需要安装。交叉编译和平台特定说明见 docs/INSTALL.md。
# NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_NVIDIA_API_KEY"
deepseek --provider nvidia-nim
# AtlasCloud
deepseek auth set --provider atlascloud --api-key "YOUR_ATLASCLOUD_API_KEY"
deepseek --provider atlascloud
# OpenRouter
deepseek auth set --provider openrouter --api-key "YOUR_OPENROUTER_API_KEY"
deepseek --provider openrouter --model deepseek/deepseek-v4-pro
# Novita
deepseek auth set --provider novita --api-key "YOUR_NOVITA_API_KEY"
deepseek --provider novita --model deepseek/deepseek-v4-pro
# Fireworks
deepseek auth set --provider fireworks --api-key "YOUR_FIREWORKS_API_KEY"
deepseek --provider fireworks --model deepseek-v4-pro
# 通用 OpenAI 兼容端点
deepseek auth set --provider openai --api-key "YOUR_OPENAI_COMPATIBLE_API_KEY"
OPENAI_BASE_URL="https://openai-compatible.example/v4" deepseek --provider openai --model glm-5
# 自托管 SGLang
SGLANG_BASE_URL="http://localhost:30000/v1" deepseek --provider sglang --model deepseek-v4-flash
# 自托管 vLLM
VLLM_BASE_URL="http://localhost:8000/v1" deepseek --provider vllm --model deepseek-v4-flash
# 自托管 Ollama
ollama pull deepseek-coder:1.3b
deepseek --provider ollama --model deepseek-coder:1.3b
在 TUI 内,/provider 打开提供方选择器,/model 打开模型选择器。
/provider openrouter 和 /model <id> 可直接切换;/models 会列出
API 返回的实时模型。/model 选择器会优先使用当前提供方的实时模型
目录,不可用时再回退到 provider-aware 默认模型列表。
每个版本的具体变更见 CHANGELOG.md。README 只保留当前 安装方式、核心工作流、模型提供方配置、运行时接口和扩展入口。
deepseek # 交互式 TUI
deepseek "explain this function" # 一次性提示
deepseek exec --auto --output-format stream-json "fix this bug" # 面向后端集成的 NDJSON 流
deepseek exec --resume <SESSION_ID> "follow up" # 继续非交互会话
deepseek --model deepseek-v4-flash "summarize" # 指定模型
deepseek --model auto "fix this bug" # 自动选择模型 + 推理强度
deepseek --yolo # 自动批准工具
deepseek auth set --provider deepseek # 保存 API key
deepseek doctor # 检查配置和连接
deepseek doctor --json # 机器可读诊断
deepseek setup --status # 只读安装状态
deepseek setup --tools --plugins # 创建本地工具和插件目录
deepseek models # 列出可用 API 模型
deepseek sessions # 列出已保存会话
deepseek resume --last # 恢复最近会话
deepseek resume <SESSION_ID> # 按 UUID 恢复指定会话
deepseek fork <SESSION_ID> # 在指定轮次分叉会话
deepseek serve --http # HTTP/SSE API 服务
deepseek serve --acp # Zed/自定义智能体的 ACP stdio 适配器
deepseek run pr <N> # 获取 PR 并预填审查提示
deepseek mcp list # 列出已配置 MCP 服务器
deepseek mcp validate # 校验 MCP 配置和连接
deepseek mcp-server # 启动 dispatcher MCP stdio 服务器
deepseek update # 检查并应用二进制更新
Docker 镜像发布在 GHCR 上:
docker volume create deepseek-tui-home
docker run --rm -it \
-e DEEPSEEK_API_KEY="$DEEPSEEK_API_KEY" \
-v deepseek-tui-home:/home/deepseek/.deepseek \
-v "$PWD:/workspace" \
-w /workspace \
ghcr.io/hmbown/deepseek-tui:latest
固定 tag、本地构建、volume 权限和非交互管道用法见 docs/DOCKER.md。
DeepSeek 可作为自定义 Agent Client Protocol 服务器运行,供 Zed 等编辑器通过 stdio 调用本地 ACP 智能体。在 Zed 中添加自定义智能体服务器:
{
"agent_servers": {
"DeepSeek": {
"type": "custom",
"command": "deepseek",
"args": ["serve", "--acp"],
"env": {}
}
}
}
首个 ACP 切片支持通过现有 DeepSeek 配置/API 密钥创建新会话和提示响应。工具支持的编辑和检查点回放尚未通过 ACP 暴露。
| 按键 | 功能 |
|---|---|
Tab | 补全 / 或 @;运行中则把草稿排队;否则切换模式 |
Shift+Tab | 切换推理强度:off → high → max |
F1 | 可搜索帮助面板 |
Esc | 返回 / 关闭 |
Ctrl+K | 命令面板 |
Ctrl+R | 恢复旧会话 |
Alt+R | 搜索提示历史和恢复草稿 |
Ctrl+S | 暂存当前草稿(/stash list、/stash pop 恢复) |
@path | 在输入框中附加文件或目录上下文 |
↑(在输入框开头) | 选择附件行进行移除 |
完整快捷键目录:docs/KEYBINDINGS.md。
| 模式 | 行为 |
|---|---|
| Plan 🔍 | 只读调查;模型先探索并提出计划(update_plan + checklist_write),然后再做更改 |
| Agent 🤖 | 默认交互模式;多步工具调用带审批门禁 |
| YOLO ⚡ | 在可信工作区自动批准工具;仍会维护计划和清单以保持可见性 |
用户配置:~/.deepseek/config.toml。项目覆盖:<workspace>/.deepseek/config.toml(以下密钥被拒绝:api_key、base_url、provider、mcp_config_path)。完整选项见 config.example.toml。
常用环境变量:
| 变量 | 用途 |
|---|---|
DEEPSEEK_API_KEY | DeepSeek API key |
DEEPSEEK_BASE_URL | API base URL |
DEEPSEEK_HTTP_HEADERS | 可选模型请求头,例如 X-Model-Provider-Id=your-model-provider |
DEEPSEEK_MODEL | 默认模型 |
DEEPSEEK_STREAM_IDLE_TIMEOUT_SECS | 流式响应空闲超时秒数,默认 300,限制在 1..=3600 |
DEEPSEEK_PROVIDER | deepseek(默认)、nvidia-nim、openai、openrouter、novita、atlascloud、fireworks、sglang、vllm、ollama |
DEEPSEEK_PROFILE | 配置 profile 名称 |
DEEPSEEK_MEMORY | 设为 on 启用用户记忆 |
DEEPSEEK_ALLOW_INSECURE_HTTP=1 | 在可信网络上允许非本机 http:// API base URL |
NVIDIA_API_KEY / OPENAI_API_KEY / OPENROUTER_API_KEY / NOVITA_API_KEY / ATLASCLOUD_API_KEY / FIREWORKS_API_KEY / SGLANG_API_KEY / VLLM_API_KEY / OLLAMA_API_KEY | 提供商认证 |
OPENAI_BASE_URL / OPENAI_MODEL | 通用 OpenAI 兼容端点和模型 ID |
ATLASCLOUD_BASE_URL / ATLASCLOUD_MODEL | AtlasCloud 端点和模型覆盖 |
OPENROUTER_BASE_URL | OpenRouter 端点覆盖 |
NOVITA_BASE_URL | Novita 端点覆盖 |
FIREWORKS_BASE_URL | Fireworks 端点覆盖 |
SGLANG_BASE_URL | 自托管 SGLang 端点 |
SGLANG_MODEL | 自托管 SGLang 模型 ID |
VLLM_BASE_URL | 自托管 vLLM 端点 |
VLLM_MODEL | 自托管 vLLM 模型 ID |
OLLAMA_BASE_URL | 自托管 Ollama 端点 |
OLLAMA_MODEL | 自托管 Ollama 模型标签 |
NO_ANIMATIONS=1 | 启动时强制无障碍模式 |
SSL_CERT_FILE | 企业代理的自定义 CA 包 |
locale 会控制界面语言,并作为模型自然语言的兜底设置;最新用户消息的语言优先级更高。也就是说,即使系统 locale 是英文,用户用中文提问时,V4 的 reasoning_content 和最终回复也应该使用中文。可在 config.toml 中设置 locale、使用 /config locale zh-Hans、或依赖 LC_ALL/LANG。详见 docs/LOCALIZATION.md 和 docs/CONFIGURATION.md。
如果界面是其他语言,可以在 TUI 内一键切换为简体中文:
/config,按 Tab 或 Enter 打开配置面板。New: 字段输入 zh-Hans,按 Enter 应用。可选语言:auto | en | ja | zh-Hans | pt-BR。
也可以在 ~/.deepseek/config.toml 里直接设置 locale = "zh-Hans",或通过 LC_ALL / LANG 环境变量自动选择:
# ~/.deepseek/config.toml
[tui]
locale = "zh-Hans"
或者通过环境变量(中文系统通常已自动生效):
LANG=zh_CN.UTF-8 deepseek run
| 模型 | 上下文 | 输入(缓存命中) | 输入(缓存未命中) | 输出 |
|---|---|---|---|---|
deepseek-v4-pro | 1M | $0.003625 / 1M* | $0.435 / 1M* | $0.87 / 1M* |
deepseek-v4-flash | 1M | $0.0028 / 1M | $0.14 / 1M | $0.28 / 1M |
旧别名 deepseek-chat / deepseek-reasoner 映射到 deepseek-v4-flash。NVIDIA NIM 变体使用你的 NVIDIA 账号条款。
DeepSeek Pro 价格是限时 75% 折扣,有效期到 2026-05-31 15:59 UTC;该时间之后 TUI 成本估算会回退到 Pro 基础价格。
NOTE
关于 DeepSeek-V4-Pro 的最新定价信息,请参阅官方 DeepSeek 定价页面,请注意目前可享受 75% 的折扣,该优惠有效期至 2026 年 5 月 31 日 23:59(北京时间)。此外,README 文档中所列出的所有价格,均与官方发布的数值保持一致。
DeepSeek TUI 从工作区目录(.agents/skills → skills → .opencode/skills → .claude/skills)和全局 ~/.deepseek/skills 发现技能。每个技能是一个包含 SKILL.md 的目录:
~/.deepseek/skills/my-skill/
└── SKILL.md
需要 YAML frontmatter:
---
name: my-skill
description: 当 DeepSeek 需要遵循我的自定义工作流时使用这个技能。
---
# My Skill
这里写给智能体的指令。
常用命令:/skills(列出)、/skill <name>(激活)、/skill new(创建)、/skill install github:<owner>/<repo>(社区)、/skill update / uninstall / trust。社区技能直接从 GitHub 安装,无需后端服务。已安装技能在模型可见的会话上下文里列出;当任务匹配技能描述时,智能体可通过 load_skill 工具自动读取对应的 SKILL.md。
| 文档 | 主题 |
|---|---|
| ARCHITECTURE.md | 代码库内部结构 |
| CONFIGURATION.md | 完整配置参考 |
| MODES.md | Plan / Agent / YOLO 模式 |
| MCP.md | Model Context Protocol 集成 |
| RUNTIME_API.md | HTTP/SSE API 服务 |
| INSTALL.md | 各平台安装指南 |
| DOCKER.md | GHCR 镜像、volume 和 Docker 用法 |
| CNB_MIRROR.md | CNB 镜像和中国大陆友好安装说明 |
| TENCENT_CLOUD_REMOTE_FIRST.md | 腾讯云/CNB/Lighthouse/飞书远程优先路径 |
| TENCENT_LIGHTHOUSE_HK.md | 腾讯云 Lighthouse 香港实例配置 |
| MEMORY.md | 用户记忆功能指南 |
| SUBAGENTS.md | 子智能体角色分类与生命周期 |
| KEYBINDINGS.md | 完整快捷键目录 |
| RELEASE_RUNBOOK.md | 发布流程 |
| LOCALIZATION.md | UI 语言矩阵与切换 |
| OPERATIONS_RUNBOOK.md | 运维和恢复 |
完整更新历史:CHANGELOG.md。
本项目由不断壮大的贡献者社区共同打造:
cwd 边界验证 (#524)working... 卡死状态 Bug 报告和 Windows 剪贴板兜底修复 (#738, #850)--version 兜底 (#885)deepseek update 命令文档 (#838, #917)/rename 命令 (#836).cursor/skills 发现路径支持 (#817)max_tokens 计算 (#826)fetch_url 的 SSRF 保护和 Star History 图表/theme 命令基础和 SSE gzip/brotli 解压支持 (#1057, #1061)/skills 覆盖范围修复 (#1068, #1083)deepseek-cn 官方端点默认值 (#1079, #1084)欢迎提交 pull request——请先查看 CONTRIBUTING.md 并留意开放 issue 中的好入门任务。
本项目与 DeepSeek Inc. 无隶属关系。