中文 | English | 日本語 | Français | Deutsch
超低リソース消費、超高速なオフライン翻訳モデルサーバーです。グラフィックカードは不要です。リクエストあたりの平均応答時間は 50 ミリ秒です。世界の主要言語の翻訳をサポートしています。
注意:このモデルサーバーは、オフライン翻訳、応答速度、クロスプラットフォーム展開、ローカル実行による無制限の無料翻訳という設計目標に焦点を当てており、モデルサイズと最適化の制限により、翻訳品質は大モデル翻訳の効果には及びません。高品質な翻訳が必要な場合は、オンラインの大規模言語モデル API の使用をお勧めします。
v4 ではメモリ使用量が最適化され、速度がさらに向上し、安定性が強化されました。古いバージョンを使用している場合は、すぐにアップグレードすることをお勧めします!
| ウェブサイト | TOKEN | その他のインターフェース | 提供者 |
|---|---|---|---|
| ipacel.cc | __IpacEL_MT_API_TOKEN__ | 没入型翻訳: https://MTranServer.ipacel.cc/imme?token=__IpacEL_MT_API_TOKEN__ | @ApliNi |
ユーザーに試用サービスを提供してくださるコミュニティの貢献者に感謝します!
デスクトップ版でワンクリック起動が可能になりました!Windows、Mac、Linux をサポートしています。
Releases から対応するプラットフォームの最新デスクトップ版をダウンロードし、直接インストールして起動するだけで使用できます。
デスクトップ版起動後、トレイメニューが作成され、メニューからサービスを便利に管理できます。
プログラムには簡易 UI とオンラインデバッグドキュメントが付属しています。
詳細な使用説明は エコシステム にジャンプしてください。
プレビュー(最新版で更新あり):


デスクトップ版または Docker でのデプロイをお勧めします。パフォーマンスが良く、使いやすいです。サーバー版の手動デプロイは上級ユーザー向けです。
プログラマーの方はコマンドラインから直接サーバーを起動できます:
npx mtranserver@latest
npxはbunx、pnpxなど、好きなパッケージマネージャーに置き換え可能です。
重要:
初めて特定の言語ペアを翻訳する場合、サーバーは対応する翻訳モデルを自動的にダウンロードします(オフラインモードが有効でない場合)。このプロセスには、ネットワーク速度とモデルサイズに応じて時間がかかる場合があります。モデルのダウンロード完了後、その後の翻訳リクエストはミリ秒レベルの応答速度になります。正式に使用する前に一度翻訳をテストし、サーバーにモデルを事前にダウンロードしてロードさせることをお勧めします。プログラムは頻繁に更新されます。問題が発生した場合は、最新バージョンに更新してみてください。
npm i -g mtranserver@latest
npmはbun、pnpmなど、好きなパッケージマネージャーに置き換え可能です。
その後 mtranserver を起動してください。
空のディレクトリを作成し、以下の内容で compose.yml ファイルを作成します。
services:
mtranserver:
image: xxnuo/mtranserver:latest
container_name: mtranserver
restart: unless-stopped
ports:
- "8989:8989"
environment:
- MT_HOST=0.0.0.0
- MT_PORT=8989
- MT_OFFLINE=false
# - MT_API_TOKEN=your_secret_token_here
volumes:
- ./models:/app/models
docker pull xxnuo/mtranserver:latest docker compose up -d
VS Code、Cursor、Augment などの VS Code 系 IDE をサポートしています。
拡張機能マーケットプレイスで MTranCode を検索するとコメント翻訳プラグインをインストールできます。
プラグインはデフォルトで http://localhost:8989 のサーバーを呼び出してコメントやコードの翻訳を行います。設定で変更できます。
このプラグインは vscode-comment-translate を fork したものです。
TODO: 開発中です。
派生プロジェクトを開発した場合は、PR を送ってください。エコシステムのプロジェクトに追加します。
ちなみに、プロジェクトは npm パッケージとして公開されています。他のプログラムから簡単なライブラリインターフェースを直接呼び出して翻訳機能を実装できます。詳細は TypeScript 型定義をご確認ください。
サーバーは複数の翻訳プラグインの互換インターフェースを提供しています。
| インターフェース | メソッド | 説明 | 対応プラグイン |
|---|---|---|---|
/imme | POST | 没入型翻訳(Immersive Translate)プラグインインターフェース | 没入型翻訳 |
/kiss | POST | Kiss Translator プラグインインターフェース | Kiss Translator |
/deepl | POST | DeepL API v2 互換インターフェース | DeepL API 対応クライアント |
/deeplx | POST | DeepLX 互換インターフェース | DeepLX API 対応クライアント |
/hcfy | POST | 划词翻译(Selection Translator)互換インターフェース | 划词翻译 |
/hcfy | POST | 划词翻译(Selection Translator)互換インターフェース | 划词翻译 |
/google/language/translate/v2 | POST | Google Translate API v2 互換インターフェース | Google Translate API 対応クライアント |
/google/translate_a/single | GET | Google translate_a/single 互換インターフェース | Google ウェブ翻訳対応クライアント |
プラグイン設定説明:
注:
没入型翻訳:
設定ページの開発者モードでBeta機能を有効にすると、翻訳サービスの中にカスタムAPI設定が表示されます(公式画像付きチュートリアル)。その後、カスタムAPI設定の秒間最大リクエスト数を高く設定して、サーバーの性能を最大限に引き出してください。私は秒間最大リクエスト数を512、リクエストごとの最大段落数を1に設定しています。サーバーの構成に合わせて調整してください。Kiss Translator:
設定ページでインターフェース設定を下にスクロールすると、カスタムインターフェースCustomが表示されます。同様に、最大同時リクエスト数とリクエスト間隔時間を設定してサーバーの性能を引き出してください。私は最大同時リクエスト数を100、リクエスト間隔時間を1に設定しています。サーバーの構成に合わせて調整してください。次に、以下の表に従ってプラグインのカスタムインターフェースアドレスを設定します。
| 名前 | URL | プラグイン設定 |
|---|---|---|
| 没入型翻訳(パスワードなし) | http://localhost:8989/imme | カスタムAPI設定 - API URL |
| 没入型翻訳(パスワードあり) | http://localhost:8989/imme?token=your_token | 同上、URL 末尾の your_token をあなたの MT_API_TOKEN の値に変更してください |
| Kiss Translator(パスワードなし) | http://localhost:8989/kiss | インターフェース設定 - Custom - URL |
| Kiss Translator(パスワードあり) | http://localhost:8989/kiss | 同上、KEY に your_token を入力してください |
| DeepL 互換 | http://localhost:8989/deepl | DeepL-Auth-Key または Bearer 認証を使用 |
| DeepLX 互換 | http://localhost:8989/deeplx | token パラメータまたは Bearer 認証をサポート |
| Google 互換 | http://localhost:8989/google/language/translate/v2 | key パラメータまたは Bearer 認証を使用 |
| 划词翻译 | http://localhost:8989/hcfy | token パラメータまたは Bearer 認証をサポート |
一般ユーザーは、表の内容に従ってプラグインの使用インターフェースアドレスを設定すれば使用できます。
./mtranserver [オプション]
オプション:
-version, -v バージョン情報を表示
-log-level string ログレベル (debug, info, warn, error) (デフォルト "warn")
-config-dir string 設定ディレクトリ (デフォルト "~/.config/mtran/server")
-model-dir string モデルディレクトリ (デフォルト "~/.config/mtran/models")
-host string サーバーリッスンアドレス (デフォルト "0.0.0.0")
-port string サーバーポート (デフォルト "8989")
-ui Web UI を有効にする (デフォルト true)
-offline オフラインモードを有効にする(新しいモデルを自動ダウンロードしない) (デフォルト false)
-worker-idle-timeout int Worker アイドルタイムアウト(秒) (デフォルト 300)
--download pairs... 指定した言語ペアのモデルをダウンロード (例: --download en_zh zh_en)
--languages ダウンロード可能な言語ペア一覧を表示
注意:`--download` と `--languages` はネットワーク接続が必要で、オフラインモードでは動作しません。
例:
./mtranserver --host 127.0.0.1 --port 8080
./mtranserver --ui --offline
./mtranserver -v
同様の機能を持つプロジェクトをいくつか挙げます。他のニーズがある場合は、これらのプロジェクトを試してみてください。
| プロジェクト名 | メモリ使用量 | 同時実行性能 | 翻訳品質 | 速度 | その他情報 |
|---|---|---|---|---|---|
| NLLB | 非常に高い | 悪い | 普通 | 遅い | Android 移植版の RTranslator は多くの最適化がありますが、それでもリソース使用量が高く、高速ではありません |
| LibreTranslate | 非常に高い | 普通 | 普通 | 中程度 | ミドルレンジ CPU で毎秒 3 文、ハイエンド CPU で毎秒 15-20 文処理。詳細 |
| OPUS-MT | 高い | 普通 | やや悪い | 速い | 性能テスト |
| その他大規模モデル | 超高い | 動的 | 非常に良い | 非常に遅い | ハードウェア要件が高い。高同時実行翻訳が必要な場合は、vllm フレームワークの使用をお勧めします。 |
| 本プロジェクト | 低 | 高い | 普通 | 極めて速い | リクエストあたり平均応答時間 50ms。 |
表のデータは CPU、英中翻訳シナリオでの簡易テストであり、厳密なテストではなく、非量子化バージョンの比較です。参考程度にしてください。
API_ja.md ファイルおよび起動後の API ドキュメントを参照してください。
Bergamot Project for awesome idea of local translation.