logo
1
1
WeChat Login

MTranServer

中文 | English | 日本語 | Français | Deutsch

超低リソース消費、超高速なオフライン翻訳モデルサーバーです。グラフィックカードは不要です。リクエストあたりの平均応答時間は 50 ミリ秒です。世界の主要言語の翻訳をサポートしています。

注意:このモデルサーバーは、オフライン翻訳応答速度クロスプラットフォーム展開ローカル実行による無制限の無料翻訳という設計目標に焦点を当てており、モデルサイズと最適化の制限により、翻訳品質は大モデル翻訳の効果には及びません。高品質な翻訳が必要な場合は、オンラインの大規模言語モデル API の使用をお勧めします。

v4 ではメモリ使用量が最適化され、速度がさらに向上し、安定性が強化されました。古いバージョンを使用している場合は、すぐにアップグレードすることをお勧めします!

オンラインデモ

ウェブサイトTOKENその他のインターフェース提供者
ipacel.cc__IpacEL_MT_API_TOKEN__没入型翻訳: https://MTranServer.ipacel.cc/imme?token=__IpacEL_MT_API_TOKEN__@ApliNi

ユーザーに試用サービスを提供してくださるコミュニティの貢献者に感謝します!

使用方法

デスクトップ版でワンクリック起動が可能になりました!Windows、Mac、Linux をサポートしています。

デスクトップ版

手動ダウンロード

Releases から対応するプラットフォームの最新デスクトップ版をダウンロードし、直接インストールして起動するだけで使用できます。

デスクトップ版起動後、トレイメニューが作成され、メニューからサービスを便利に管理できます。

プログラムには簡易 UI とオンラインデバッグドキュメントが付属しています。

詳細な使用説明は エコシステム にジャンプしてください。

プレビュー(最新版で更新あり):

UI

ドキュメント

サーバー版

デスクトップ版または Docker でのデプロイをお勧めします。パフォーマンスが良く、使いやすいです。サーバー版の手動デプロイは上級ユーザー向けです。

クイックスタート

プログラマーの方はコマンドラインから直接サーバーを起動できます:

npx mtranserver@latest

npxbunxpnpx など、好きなパッケージマネージャーに置き換え可能です。

重要:

初めて特定の言語ペアを翻訳する場合、サーバーは対応する翻訳モデルを自動的にダウンロードします(オフラインモードが有効でない場合)。このプロセスには、ネットワーク速度とモデルサイズに応じて時間がかかる場合があります。モデルのダウンロード完了後、その後の翻訳リクエストはミリ秒レベルの応答速度になります。正式に使用する前に一度翻訳をテストし、サーバーにモデルを事前にダウンロードしてロードさせることをお勧めします。プログラムは頻繁に更新されます。問題が発生した場合は、最新バージョンに更新してみてください。

クイックインストール

npm i -g mtranserver@latest

npmbunpnpm など、好きなパッケージマネージャーに置き換え可能です。

その後 mtranserver を起動してください。

Docker Compose デプロイ

空のディレクトリを作成し、以下の内容で compose.yml ファイルを作成します。

services: mtranserver: image: xxnuo/mtranserver:latest container_name: mtranserver restart: unless-stopped ports: - "8989:8989" environment: - MT_HOST=0.0.0.0 - MT_PORT=8989 - MT_OFFLINE=false # - MT_API_TOKEN=your_secret_token_here volumes: - ./models:/app/models
docker pull xxnuo/mtranserver:latest docker compose up -d

エコシステム

IDE プラグイン

MTranCode コメント翻訳プラグイン

VS Code、Cursor、Augment などの VS Code 系 IDE をサポートしています。

拡張機能マーケットプレイスで MTranCode を検索するとコメント翻訳プラグインをインストールできます。

プラグインはデフォルトで http://localhost:8989 のサーバーを呼び出してコメントやコードの翻訳を行います。設定で変更できます。

このプラグインは vscode-comment-translate を fork したものです。

ブラウザ拡張

TODO: 開発中です。

派生プロジェクトを開発した場合は、PR を送ってください。エコシステムのプロジェクトに追加します。

ちなみに、プロジェクトは npm パッケージとして公開されています。他のプログラムから簡単なライブラリインターフェースを直接呼び出して翻訳機能を実装できます。詳細は TypeScript 型定義をご確認ください。

互換インターフェース

サーバーは複数の翻訳プラグインの互換インターフェースを提供しています。

インターフェースメソッド説明対応プラグイン
/immePOST没入型翻訳(Immersive Translate)プラグインインターフェース没入型翻訳
/kissPOSTKiss Translator プラグインインターフェースKiss Translator
/deeplPOSTDeepL API v2 互換インターフェースDeepL API 対応クライアント
/deeplxPOSTDeepLX 互換インターフェースDeepLX API 対応クライアント
/hcfyPOST划词翻译(Selection Translator)互換インターフェース划词翻译
/hcfyPOST划词翻译(Selection Translator)互換インターフェース划词翻译
/google/language/translate/v2POSTGoogle Translate API v2 互換インターフェースGoogle Translate API 対応クライアント
/google/translate_a/singleGETGoogle translate_a/single 互換インターフェースGoogle ウェブ翻訳対応クライアント

プラグイン設定説明:

注:

  • 没入型翻訳設定ページの開発者モードでBeta機能を有効にすると、翻訳サービスの中にカスタムAPI設定が表示されます(公式画像付きチュートリアル)。その後、カスタムAPI設定秒間最大リクエスト数を高く設定して、サーバーの性能を最大限に引き出してください。私は秒間最大リクエスト数512リクエストごとの最大段落数1に設定しています。サーバーの構成に合わせて調整してください。

  • Kiss Translator設定ページでインターフェース設定を下にスクロールすると、カスタムインターフェース Custom が表示されます。同様に、最大同時リクエスト数リクエスト間隔時間を設定してサーバーの性能を引き出してください。私は最大同時リクエスト数100リクエスト間隔時間1に設定しています。サーバーの構成に合わせて調整してください。

次に、以下の表に従ってプラグインのカスタムインターフェースアドレスを設定します。

名前URLプラグイン設定
没入型翻訳(パスワードなし)http://localhost:8989/immeカスタムAPI設定 - API URL
没入型翻訳(パスワードあり)http://localhost:8989/imme?token=your_token同上、URL 末尾の your_token をあなたの MT_API_TOKEN の値に変更してください
Kiss Translator(パスワードなし)http://localhost:8989/kissインターフェース設定 - Custom - URL
Kiss Translator(パスワードあり)http://localhost:8989/kiss同上、KEYyour_token を入力してください
DeepL 互換http://localhost:8989/deeplDeepL-Auth-Key または Bearer 認証を使用
DeepLX 互換http://localhost:8989/deeplxtoken パラメータまたは Bearer 認証をサポート
Google 互換http://localhost:8989/google/language/translate/v2key パラメータまたは Bearer 認証を使用
划词翻译http://localhost:8989/hcfytoken パラメータまたは Bearer 認証をサポート

一般ユーザーは、表の内容に従ってプラグインの使用インターフェースアドレスを設定すれば使用できます。

コマンドライン引数

./mtranserver [オプション] オプション: -version, -v バージョン情報を表示 -log-level string ログレベル (debug, info, warn, error) (デフォルト "warn") -config-dir string 設定ディレクトリ (デフォルト "~/.config/mtran/server") -model-dir string モデルディレクトリ (デフォルト "~/.config/mtran/models") -host string サーバーリッスンアドレス (デフォルト "0.0.0.0") -port string サーバーポート (デフォルト "8989") -ui Web UI を有効にする (デフォルト true) -offline オフラインモードを有効にする(新しいモデルを自動ダウンロードしない) (デフォルト false) -worker-idle-timeout int Worker アイドルタイムアウト(秒) (デフォルト 300) --download pairs... 指定した言語ペアのモデルをダウンロード (例: --download en_zh zh_en) --languages ダウンロード可能な言語ペア一覧を表示 注意:`--download` と `--languages` はネットワーク接続が必要で、オフラインモードでは動作しません。 例: ./mtranserver --host 127.0.0.1 --port 8080 ./mtranserver --ui --offline ./mtranserver -v

類似プロジェクト

同様の機能を持つプロジェクトをいくつか挙げます。他のニーズがある場合は、これらのプロジェクトを試してみてください。

プロジェクト名メモリ使用量同時実行性能翻訳品質速度その他情報
NLLB非常に高い悪い普通遅いAndroid 移植版の RTranslator は多くの最適化がありますが、それでもリソース使用量が高く、高速ではありません
LibreTranslate非常に高い普通普通中程度ミドルレンジ CPU で毎秒 3 文、ハイエンド CPU で毎秒 15-20 文処理。詳細
OPUS-MT高い普通やや悪い速い性能テスト
その他大規模モデル超高い動的非常に良い非常に遅いハードウェア要件が高い。高同時実行翻訳が必要な場合は、vllm フレームワークの使用をお勧めします。
本プロジェクト高い普通極めて速いリクエストあたり平均応答時間 50ms。

表のデータは CPU、英中翻訳シナリオでの簡易テストであり、厳密なテストではなく、非量子化バージョンの比較です。参考程度にしてください。

高度な設定説明

API_ja.md ファイルおよび起動後の API ドキュメントを参照してください。

Star History

Star History Chart

Thanks

Bergamot Project for awesome idea of local translation.

Mozilla for the models.