logo
0
0
WeChat Login
docs: refresh README setup guidance

🐳 DeepSeek TUI

このターミナルネイティブのコーディングエージェントは、DeepSeek V4 の 100 万トークンのコンテキストウィンドウとプレフィックスキャッシュ機能を中心に構築されています。単一のバイナリとして配布され、Node.js や Python のランタイムは不要です。MCP クライアント、サンドボックス、永続的なタスクキューも標準で同梱されています。

English README 简体中文 README

インストール

deepseek は自己完結型の Rust バイナリとして提供されており、実行に Node.js や Python のランタイムは必要ありません。 すでにマシンにインストールされているものを選んでください。いずれの方法でも同じバイナリが PATH に配置されます。

# 1. npm — すでに Node を使っているなら最も簡単。npm パッケージは
#    GitHub Releases から対応するビルド済みバイナリをダウンロードする
#    薄いインストーラーであり、deepseek 本体に Node ランタイム依存を加えるものではありません。
npm install -g deepseek-tui

# 2. Cargo — Node 不要。
cargo install deepseek-tui-cli --locked   # `deepseek` (エントリーポイント)
cargo install deepseek-tui     --locked   # `deepseek-tui` (TUI バイナリ)

# 3. Homebrew — macOS パッケージマネージャ。
brew tap Hmbown/deepseek-tui
brew install deepseek-tui

# 4. 直接ダウンロード — Node もツールチェーンも不要。
#    https://github.com/Hmbown/DeepSeek-TUI/releases
#    Linux x64/ARM64、macOS x64/ARM64、Windows x64 向けのビルド済みバイナリがあります。

# 5. Docker — ビルド済みリリースイメージ。
docker volume create deepseek-tui-home
docker run --rm -it \
  -e DEEPSEEK_API_KEY="$DEEPSEEK_API_KEY" \
  -v deepseek-tui-home:/home/deepseek/.deepseek \
  -v "$PWD:/workspace" \
  -w /workspace \
  ghcr.io/hmbown/deepseek-tui:latest

中国本土では、--registry=https://registry.npmmirror.com を指定して npm 経由のダウンロードを高速化するか、下記のCargo ミラーを利用してください。

既にインストール済みの場合は、インストール方法に合わせて更新してください:

deepseek update
npm install -g deepseek-tui@latest
brew update && brew upgrade deepseek-tui
cargo install deepseek-tui-cli --locked --force
cargo install deepseek-tui     --locked --force

CI npm crates.io DeepWiki

Buy me a coffee

DeepSeek TUI スクリーンショット


DeepSeek TUI とは?

DeepSeek TUI は、ターミナル内で完結するコーディングエージェントです。DeepSeek のフロンティアモデルがあなたのワークスペースに直接アクセスできるようにし、ファイルの読み取り・編集、シェルコマンドの実行、Web 検索、Git 管理、サブエージェントの統制などを、すべて高速でキーボード駆動の TUI を通じて行えます。

DeepSeek V4 向けに構築 (deepseek-v4-pro / deepseek-v4-flash)。100 万トークンのコンテキストウィンドウとネイティブの thinking-mode(思考連鎖)ストリーミングをサポートします。

主な機能

  • Auto モード--model auto / /model auto がターンごとにモデルと推論強度を選択
  • ネイティブ RLM (rlm_open/rlm_eval) — 永続 REPL セッションでバッチ解析を行い、peeksearchchunksub_query_batch などの補助関数で低コストな deepseek-v4-flash 子タスクを実行
  • Thinking-mode ストリーミング — モデルがタスクに取り組む様子をリアルタイムで観察し、思考連鎖の展開を追える
  • 完全なツールスイート — ファイル操作、シェル実行、Git、Web 検索/ブラウズ、apply-patch、サブエージェント、MCP サーバー
  • 100 万トークンコンテキスト — コンテキスト追跡、手動または設定ベースのコンパクション、プレフィックスキャッシュのテレメトリ
  • 3 つのモード — Plan(読み取り専用の探索)、Agent(承認ありのインタラクティブ)、YOLO(自動承認)
  • 推論努力ティアShift + Taboff → high → max を切り替え
  • セッション保存/再開 — 長時間実行のセッションをチェックポイント化して再開可能
  • ワークスペースのロールバック — リポジトリの .git には触れずに、サイド Git によるターン前後のスナップショットを /restorerevert_turn で扱える
  • 永続的タスクキュー — 再起動を超えて生き残るバックグラウンドタスク。スケジュール自動化や長時間レビューなどに
  • HTTP/SSE ランタイム APIdeepseek serve --http でヘッドレスエージェントワークフローを実現
  • MCP プロトコル — Model Context Protocol サーバーに接続して拡張ツールを利用可能。詳細は docs/MCP.md を参照
  • LSP 診断 — rust-analyzer、pyright、typescript-language-server、gopls、clangd により、編集ごとにエラー/警告をインライン表示
  • ユーザーメモリ — クロスセッションの嗜好をシステムプロンプトに注入できる、オプションの永続メモファイル
  • ローカライズ済み UIenjazh-Hanspt-BR を自動検出
  • ライブコスト追跡 — ターンごと/セッションごとのトークン使用量とコスト見積もり、キャッシュヒット/ミスの内訳
  • スキルシステム — GitHub から取得できる命令パック。初回起動時に skill-creatormcp-builderdocumentspresentationsspreadsheetspdffeishu などのスターターセットを同梱

仕組み

deepseek(ディスパッチャー CLI)→ deepseek-tui(コンパニオンバイナリ)→ ratatui インターフェース ↔ 非同期エンジン ↔ OpenAI 互換のストリーミングクライアント。ツール呼び出しは型付きレジストリ(シェル、ファイル操作、Git、Web、サブエージェント、MCP、RLM)を経由してルーティングされ、結果はトランスクリプトへとストリーム返送されます。エンジンはセッション状態、ターン管理、永続タスクキューを管理し、LSP サブシステムは編集後の診断を次の推論ステップ前にモデルのコンテキストへ供給します。

詳しくは docs/ARCHITECTURE.md を参照してください。


クイックスタート

npm install -g deepseek-tui
deepseek --version
deepseek --model auto

ビルド済みバイナリは Linux x64Linux ARM64(v0.8.8 以降)、macOS x64macOS ARM64Windows x64 向けに公開されています。その他のターゲット(musl、riscv64、FreeBSD など)は ソースからのインストール または docs/INSTALL.md を参照してください。

初回起動時に DeepSeek API キー の入力を求められます。キーは ~/.deepseek/config.toml に保存されるため、OS のクレデンシャルプロンプトなしに任意のディレクトリから利用できます。

事前に設定することもできます:

deepseek auth set --provider deepseek   # ~/.deepseek/config.toml に保存

export DEEPSEEK_API_KEY="YOUR_KEY"      # 環境変数による代替方法。非対話シェルでは ~/.zshenv を使用
deepseek

deepseek doctor                         # セットアップを検証

保存済みキーをローテーション/削除するには: deepseek auth clear --provider deepseek

Linux ARM64(Raspberry Pi、Asahi、Graviton、HarmonyOS PC)

npm i -g deepseek-tui は v0.8.8 以降、glibc ベースの ARM64 Linux で動作します。Releases ページ からビルド済みバイナリをダウンロードし、PATH 上に並べて配置することもできます。

中国 / ミラーフレンドリーなインストール

中国本土から GitHub または npm のダウンロードが遅い場合は、Cargo レジストリのミラーを利用してください:

# ~/.cargo/config.toml
[source.crates-io]
replace-with = "tuna"

[source.tuna]
registry = "sparse+https://mirrors.tuna.tsinghua.edu.cn/crates.io-index/"

その後、両方のバイナリをインストールしてください(ディスパッチャーは実行時に TUI へ委譲します):

cargo install deepseek-tui-cli --locked   # `deepseek` を提供
cargo install deepseek-tui     --locked   # `deepseek-tui` を提供
deepseek --version

ビルド済みバイナリは GitHub Releases からもダウンロードできます。ミラーされたリリースアセットには DEEPSEEK_TUI_RELEASE_BASE_URL を使ってください。

Windows(Scoop)

Scoop は Windows のパッケージマネージャです。インストール後、次を実行してください:

scoop install deepseek-tui
ソースからのインストール

任意の Tier-1 Rust ターゲット — musl、riscv64、FreeBSD、古い ARM64 ディストロを含む — で動作します。

# Linux のビルド依存関係 (Debian/Ubuntu/RHEL):
#   sudo apt-get install -y build-essential pkg-config libdbus-1-dev
#   sudo dnf install -y gcc make pkgconf-pkg-config dbus-devel

git clone https://github.com/Hmbown/DeepSeek-TUI.git
cd DeepSeek-TUI

cargo install --path crates/cli --locked   # Rust 1.88+ が必要。`deepseek` を提供
cargo install --path crates/tui --locked   # `deepseek-tui` を提供

両方のバイナリが必要です。クロスコンパイルとプラットフォーム固有の注意事項: docs/INSTALL.md

その他の API プロバイダー

# NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_NVIDIA_API_KEY"
deepseek --provider nvidia-nim

# AtlasCloud
deepseek auth set --provider atlascloud --api-key "YOUR_ATLASCLOUD_API_KEY"
deepseek --provider atlascloud

# OpenRouter
deepseek auth set --provider openrouter --api-key "YOUR_OPENROUTER_API_KEY"
deepseek --provider openrouter --model deepseek/deepseek-v4-pro

# Novita
deepseek auth set --provider novita --api-key "YOUR_NOVITA_API_KEY"
deepseek --provider novita --model deepseek/deepseek-v4-pro

# Fireworks
deepseek auth set --provider fireworks --api-key "YOUR_FIREWORKS_API_KEY"
deepseek --provider fireworks --model deepseek-v4-pro

# 汎用 OpenAI 互換エンドポイント
deepseek auth set --provider openai --api-key "YOUR_OPENAI_COMPATIBLE_API_KEY"
OPENAI_BASE_URL="https://openai-compatible.example/v4" deepseek --provider openai --model glm-5

# セルフホスト SGLang
SGLANG_BASE_URL="http://localhost:30000/v1" deepseek --provider sglang --model deepseek-v4-flash

# セルフホスト vLLM
VLLM_BASE_URL="http://localhost:8000/v1" deepseek --provider vllm --model deepseek-v4-flash

# セルフホスト Ollama
ollama pull deepseek-coder:1.3b
deepseek --provider ollama --model deepseek-coder:1.3b

TUI 内では /provider でプロバイダーピッカー、/model でモデルピッカーを開けます。/provider openrouter/model <id> で直接切り替え、/models で API から返るライブモデル一覧を確認できます。/model ピッカーは、利用可能な場合は現在のプロバイダーのライブモデルカタログを使い、ない場合はプロバイダー別の既定モデルにフォールバックします。


リリースノート

バージョンごとの変更点は CHANGELOG.md にまとめています。この README は、現在のインストール方法、主要ワークフロー、プロバイダー設定、ランタイムインターフェース、拡張ポイントに絞っています。


使い方

deepseek                                         # インタラクティブ TUI
deepseek "explain this function"                 # ワンショットプロンプト
deepseek exec --auto --output-format stream-json "fix this bug"  # NDJSON バックエンドストリーム
deepseek exec --resume <SESSION_ID> "follow up"  # 非対話セッションを継続
deepseek --model deepseek-v4-flash "summarize"   # モデルの上書き
deepseek --model auto "fix this bug"             # モデルと推論強度を自動選択
deepseek --yolo                                  # ツールを自動承認
deepseek auth set --provider deepseek            # API キーの保存
deepseek doctor                                  # セットアップと接続性のチェック
deepseek doctor --json                           # 機械可読の診断
deepseek setup --status                          # 読み取り専用のセットアップ状態
deepseek setup --tools --plugins                 # ツール/プラグインディレクトリの雛形作成
deepseek models                                  # ライブ API モデル一覧
deepseek sessions                                # 保存済みセッション一覧
deepseek resume --last                           # 最新セッションを再開
deepseek resume <SESSION_ID>                     # UUID 指定で特定セッションを再開
deepseek fork <SESSION_ID>                       # 任意のターンでセッションを fork
deepseek serve --http                            # HTTP/SSE API サーバー
deepseek serve --acp                             # Zed/カスタムエージェント向け ACP stdio アダプター
deepseek run pr <N>                              # PR を取得しレビュープロンプトに先行投入
deepseek mcp list                                # 設定された MCP サーバー一覧
deepseek mcp validate                            # MCP の設定/接続性を検証
deepseek mcp-server                              # ディスパッチャー MCP stdio サーバーを実行
deepseek update                                  # バイナリ更新の確認と適用

キーボードショートカット

キー動作
Tab/ または @ のエントリ補完。実行中はドラフトをフォローアップとしてキューに追加。それ以外はモード切替
Shift+Tab推論努力の切替: off → high → max
F1検索可能なヘルプオーバーレイ
Esc戻る/閉じる
Ctrl+Kコマンドパレット
Ctrl+R以前のセッションを再開
Alt+Rプロンプト履歴を検索し、消去したドラフトを復元
Ctrl+S現在のドラフトを退避(/stash list/stash pop で復元)
@pathコンポーザーにファイル/ディレクトリのコンテキストを添付
(コンポーザー先頭で)添付ファイル行を選択して削除
Alt+↑キュー済みの最後のメッセージを編集

ショートカット完全版: docs/KEYBINDINGS.md


モード

モード動作
Plan 🔍読み取り専用の調査 — 変更を加える前に、モデルが探索して計画を提案(update_plan + checklist_write
Agent 🤖デフォルトのインタラクティブモード — 承認ゲート付きのマルチステップなツール利用。モデルは checklist_write で作業を概説
YOLO信頼できるワークスペースですべてのツールを自動承認。可視性のための計画とチェックリストは引き続き維持

設定

ユーザー設定: ~/.deepseek/config.toml。プロジェクトオーバーレイ: <workspace>/.deepseek/config.toml(拒否される項目: api_keybase_urlprovidermcp_config_path)。すべてのオプションは config.example.toml にあります。

主な環境変数:

変数用途
DEEPSEEK_API_KEYAPI キー
DEEPSEEK_BASE_URLAPI ベース URL
DEEPSEEK_HTTP_HEADERS任意のモデルリクエストヘッダー
DEEPSEEK_MODELデフォルトモデル
DEEPSEEK_STREAM_IDLE_TIMEOUT_SECSストリームのアイドルタイムアウト秒数
DEEPSEEK_PROVIDERdeepseek(デフォルト)、nvidia-nimopenaiatlascloudopenrouternovitafireworkssglangvllmollama
DEEPSEEK_PROFILE設定プロファイル名
DEEPSEEK_MEMORYon に設定するとユーザーメモリを有効化
DEEPSEEK_ALLOW_INSECURE_HTTP=1信頼できるネットワークで非ローカル http:// API ベース URL を許可
NVIDIA_API_KEY / OPENAI_API_KEY / ATLASCLOUD_API_KEY / OPENROUTER_API_KEY / NOVITA_API_KEY / FIREWORKS_API_KEY / SGLANG_API_KEY / VLLM_API_KEY / OLLAMA_API_KEYプロバイダー認証
OPENAI_BASE_URL / OPENAI_MODEL汎用 OpenAI 互換エンドポイントとモデル ID
ATLASCLOUD_BASE_URL / ATLASCLOUD_MODELAtlasCloud エンドポイントとモデル上書き
OPENROUTER_BASE_URLOpenRouter エンドポイント上書き
NOVITA_BASE_URLNovita エンドポイント上書き
FIREWORKS_BASE_URLFireworks エンドポイント上書き
SGLANG_BASE_URLセルフホスト SGLang のエンドポイント
SGLANG_MODELセルフホスト SGLang のモデル ID
VLLM_BASE_URLセルフホスト vLLM のエンドポイント
VLLM_MODELセルフホスト vLLM のモデル ID
OLLAMA_BASE_URLセルフホスト Ollama のエンドポイント
OLLAMA_MODELセルフホスト Ollama のモデルタグ
NO_ANIMATIONS=1起動時にアクセシビリティモードを強制
SSL_CERT_FILE企業プロキシ向けのカスタム CA バンドル

UI のロケールはモデルの言語とは別です。settings.tomllocale を設定するか、/config locale zh-Hans を使うか、LC_ALL/LANG に依存させてください。詳しくは docs/CONFIGURATION.mddocs/MCP.md を参照してください。


モデルと料金

モデルコンテキスト入力(キャッシュヒット)入力(キャッシュミス)出力
deepseek-v4-pro1M$0.003625 / 1M*$0.435 / 1M*$0.87 / 1M*
deepseek-v4-flash1M$0.0028 / 1M$0.14 / 1M$0.28 / 1M

レガシーエイリアス deepseek-chat / deepseek-reasonerdeepseek-v4-flash にマップされます。NVIDIA NIM のバリアントはあなたの NVIDIA アカウント条件に従います。

DeepSeek Pro の料金は現在、期間限定で 75% の割引が適用されており、2026 年 5 月 31 日 15:59 UTC まで有効です。それ以降、TUI のコスト見積もりは Pro の通常料金に戻ります。


自分のスキルを公開する

DeepSeek TUI はワークスペースのディレクトリ(.agents/skillsskills.opencode/skills.claude/skills)とグローバルな ~/.deepseek/skills からスキルを発見します。各スキルは SKILL.md ファイルを持つディレクトリです:

~/.deepseek/skills/my-skill/
└── SKILL.md

必要なフロントマター:

---
name: my-skill
description: DeepSeek にカスタムワークフローを実行させたいときに利用する。
---

# My Skill
ここにエージェント向けの指示を記述します。

コマンド: /skills(一覧)、/skill <name>(有効化)、/skill new(雛形)、/skill install github:<owner>/<repo>(コミュニティ)、/skill update / uninstall / trust。GitHub からのコミュニティインストールにバックエンドサービスは不要です。インストール済みのスキルはモデルに見えるセッションコンテキストに表示され、タスクが説明文にマッチした場合はエージェントが load_skill ツールを通じて関連スキルを自動選択できます。


ドキュメント

ドキュメントトピック
ARCHITECTURE.mdコードベース内部
CONFIGURATION.md設定の完全リファレンス
MODES.mdPlan / Agent / YOLO モード
MCP.mdModel Context Protocol 統合
RUNTIME_API.mdHTTP/SSE API サーバー
INSTALL.mdプラットフォーム別インストールガイド
DOCKER.mdGHCR イメージ、ボリューム、Docker 利用方法
CNB_MIRROR.mdCNB ミラーと中国向けインストールメモ
TENCENT_CLOUD_REMOTE_FIRST.mdTencent/CNB/Lighthouse/Feishu のリモート優先パス
TENCENT_LIGHTHOUSE_HK.mdTencent Lighthouse 香港インスタンス設定
MEMORY.mdユーザーメモリ機能ガイド
SUBAGENTS.mdサブエージェントの役割分類とライフサイクル
KEYBINDINGS.mdショートカット完全カタログ
RELEASE_RUNBOOK.mdリリースプロセス
OPERATIONS_RUNBOOK.md運用とリカバリ

完全な変更履歴: CHANGELOG.md


謝辞

このプロジェクトは、増え続けるコントリビューターのコミュニティから助けを得て出荷されています:

  • merchloubna70-dot — 機能、修正、VS Code 拡張のスキャフォールドにまたがる 28 件の PR (#645–#681)
  • WyxBUPT-22 — 表、太字/斜体、水平線の Markdown レンダリング (#579)
  • loongmiaow-pixel — Windows と中国向けインストールドキュメント (#578)
  • 20bytes — ユーザーメモリのドキュメントとヘルプの磨き込み (#569)
  • staryxchen — glibc 互換性のプリフライト (#556)
  • Vishnu1837 — glibc 互換性の改善 (#565)
  • shentoumengxin — シェル cwd の境界バリデーション (#524)
  • toi500 — Windows 貼り付け修正の報告
  • xsstomy — ターミナル起動時の再描画報告
  • melody0709 — スラッシュ接頭辞の Enter アクティベーション報告
  • lloydzhoujeoor — コンパクションコストの報告
  • Agent-Skill-007 — README の明瞭化対応 (#685)
  • woyxiang — Windows Scoop インストールドキュメント (#696)
  • wangfeng — 料金/割引情報の更新 (#692)
  • zichen0116 — CODE_OF_CONDUCT.md (#686)
  • Hafeez Pizofreudefetch_url の SSRF 保護と Star History チャート
  • Unic (YuniqueUnic) — スキーマ駆動の設定 UI(TUI + Web)
  • Jason — SSRF セキュリティの強化

コントリビューション

CONTRIBUTING.md を参照してください。プルリクエストを歓迎します。良い初コントリビューションは Open Issues を確認してください。

NOTE

DeepSeek Inc. とは関係ありません。

ライセンス

MIT

Star History

Star History Chart