logo
0
1
WeChat Login
xxnuo<54252779+xxnuo@users.noreply.github.com>
docs: add deeplx

MTranServer

中文 | English | 日本語 | Français | Deutsch

Ein ultraschneller Offline-Übersetzungsmodell-Server mit minimalem Ressourcenverbrauch. Keine Grafikkarte erforderlich. Durchschnittliche Antwortzeit von 50 ms pro Anfrage. Unterstützt die Übersetzung der weltweit wichtigsten Sprachen.

Beachten Sie, dass dieser Modellserver auf die Designziele Offline-Übersetzung, Reaktionsgeschwindigkeit, plattformübergreifende Bereitstellung und lokale Ausführung fokussiert ist, um unbegrenzte kostenlose Übersetzungen zu erreichen. Aufgrund von Einschränkungen bei der Modellgröße und Optimierung wird die Übersetzungsqualität sicherlich nicht so gut sein wie die von großen Sprachmodellen. Für qualitativ hochwertige Übersetzungen wird die Verwendung von Online-APIs für große Sprachmodelle empfohlen.

v4 hat den Speicherverbrauch optimiert, die Geschwindigkeit weiter erhöht und die Stabilität verbessert. Wenn Sie eine alte Version verwenden, wird ein sofortiges Upgrade empfohlen!

Online Demo

WebsiteTOKENAndere SchnittstelleAnbieter
ipacel.cc__IpacEL_MT_API_TOKEN__Immersive Translate: https://MTranServer.ipacel.cc/imme?token=__IpacEL_MT_API_TOKEN__@ApliNi

Vielen Dank an die Mitwirkenden der Community für die Bereitstellung von Testdiensten für Benutzer!

Gebrauchsanweisung

Unterstützt jetzt Desktop-Ein-Klick-Start! Unterstützt Windows, Mac und Linux.

Desktop-App

Manueller Download

Laden Sie die neueste Desktop-Version für Ihre Plattform von Releases herunter, installieren und starten Sie direkt.

Nach dem Start der Desktop-App wird ein Tray-Menü erstellt, über das Sie den Dienst bequem verwalten können.

Das Programm enthält eine einfache Benutzeroberfläche und Online-Debug-Dokumentation.

Detaillierte Gebrauchsanweisungen finden Sie unter Ökosystem-Projekte

Vorschau (in der neuesten Version aktualisiert):

UI

Dokumentation

Server

Es wird empfohlen, die Desktop-App oder Docker-Bereitstellung zu verwenden, da diese bessere Leistung und einfachere Bedienung bieten. Die manuelle Server-Bereitstellung ist für fortgeschrittene Benutzer gedacht.

Schnellstart

Programmierer können den Server direkt über die Befehlszeile starten:

npx mtranserver@latest

npx kann durch einen beliebigen Paketmanager ersetzt werden, z. B. bunx, pnpx usw.

Wichtiger Hinweis:

Bei der erstmaligen Übersetzung eines Sprachpaares lädt der Server automatisch das entsprechende Übersetzungsmodell herunter (sofern der Offline-Modus nicht aktiviert ist). Dieser Vorgang kann je nach Netzwerkgeschwindigkeit und Modellgröße einige Zeit in Anspruch nehmen. Nach dem Herunterladen des Modells profitieren nachfolgende Übersetzungsanfragen von einer Antwortzeit im Millisekundenbereich. Es wird empfohlen, vor der eigentlichen Verwendung eine Übersetzung zu testen, damit der Server das Modell vorab herunterladen und laden kann. Das Programm wird häufig aktualisiert. Wenn Sie auf Probleme stoßen, versuchen Sie, auf die neueste Version zu aktualisieren.

Schnellinstallation

npm i -g mtranserver@latest

npm kann durch einen beliebigen Paketmanager ersetzt werden, z. B. bun, pnpm usw.

Starten Sie anschließend mtranserver.

Docker Compose Bereitstellung

Erstellen Sie ein leeres Verzeichnis und darin eine compose.yml Datei mit folgendem Inhalt:

services: mtranserver: image: xxnuo/mtranserver:latest container_name: mtranserver restart: unless-stopped ports: - "8989:8989" environment: - MT_HOST=0.0.0.0 - MT_PORT=8989 - MT_OFFLINE=false # - MT_API_TOKEN=ihr_geheimer_token_hier volumes: - ./models:/app/models
docker pull xxnuo/mtranserver:latest docker compose up -d

Ökosystem-Projekte

IDE-Plugins

MTranCode Kommentar-Übersetzungs-Plugin

Unterstützt VS Code, Cursor, Augment und andere VS-Code-basierte IDEs.

Suchen Sie im Plugin-Marktplatz nach MTranCode, um das Kommentar-Übersetzungs-Plugin zu installieren.

Das Plugin ruft standardmäßig den Server unter http://localhost:8989 für Kommentar- und Code-Übersetzungen auf. Sie können dies in den Einstellungen anpassen.

Dieses Plugin ist ein Fork von vscode-comment-translate.

Browser-Erweiterung

TODO: In aktiver Entwicklung.

Wenn Sie ein abgeleitetes Projekt entwickeln, können Sie gerne eine PR einreichen. Ich füge Ihr Projekt zur Ökosystem-Liste hinzu.

Übrigens wurde das Projekt auf npm veröffentlicht. Sie können die einfache Bibliotheksschnittstelle direkt in anderen Programmen aufrufen, um Übersetzungsfunktionen zu implementieren. Weitere Informationen finden Sie in den TypeScript-Typdefinitionen.

Kompatible Schnittstellen

Der Server bietet kompatible Schnittstellen für mehrere Übersetzungs-Plugins:

SchnittstelleMethodeBeschreibungUnterstützte Plugins
/immePOSTSchnittstelle für Immersive Translate PluginImmersive Translate
/kissPOSTSchnittstelle für Kiss Translator PluginKiss Translator
/deeplPOSTDeepL API v2 kompatible SchnittstelleClients, die die DeepL API unterstützen
/deeplxPOSTDeepLX kompatible SchnittstelleClients, die die DeepLX API unterstützen
/hcfyPOSTSelection Translator kompatible SchnittstelleSelection Translator
/hcfyPOSTSelection Translator kompatible SchnittstelleSelection Translator
/google/language/translate/v2POSTGoogle Translate API v2 kompatible SchnittstelleClients, die die Google Translate API unterstützen
/google/translate_a/singleGETGoogle translate_a/single kompatible SchnittstelleClients, die Google Web Translate unterstützen

Plugin-Konfigurationsanleitung:

Hinweis:

  • Immersive Translate: Aktivieren Sie im Entwicklermodus auf der Seite Einstellungen die Beta-Funktionen, dann sehen Sie unter Übersetzungsdienste die Benutzerdefinierte API-Einstellungen (offizielles Tutorial mit Bildern). Erhöhen Sie dann die Maximale Anfragen pro Sekunde in den Benutzerdefinierte API-Einstellungen, um die Serverleistung voll auszuschöpfen. Ich habe Maximale Anfragen pro Sekunde auf 512 und Maximale Absätze pro Anfrage auf 1 eingestellt. Sie können dies entsprechend Ihrer Serverkonfiguration anpassen.

  • Kiss Translator: Scrollen Sie auf der Seite Einstellungen nach unten zu den Schnittstelleneinstellungen, dort sehen Sie die benutzerdefinierte Schnittstelle Custom. Stellen Sie ebenfalls die Maximale Anzahl gleichzeitiger Anfragen und das Anfrageintervall ein, um die Serverleistung voll auszuschöpfen. Ich habe die Maximale Anzahl gleichzeitiger Anfragen auf 100 und das Anfrageintervall auf 1 eingestellt. Sie können dies entsprechend Ihrer Serverkonfiguration anpassen.

Konfigurieren Sie anschließend die Adresse der benutzerdefinierten Schnittstelle des Plugins gemäß der untenstehenden Tabelle.

NameURLPlugin-Einstellung
Immersive Translate (Ohne Passwort)http://localhost:8989/immeBenutzerdefinierte API-Einstellungen - API-URL
Immersive Translate (Mit Passwort)http://localhost:8989/imme?token=your_tokenDasselbe wie oben, ändern Sie your_token am Ende der URL in Ihren MT_API_TOKEN Wert
Kiss Translator (Ohne Passwort)http://localhost:8989/kissSchnittstelleneinstellungen - Custom - URL
Kiss Translator (Mit Passwort)http://localhost:8989/kissDasselbe wie oben, füllen Sie KEY mit your_token aus
DeepL Kompatibelhttp://localhost:8989/deeplVerwenden Sie DeepL-Auth-Key oder Bearer Authentifizierung
DeepLX Kompatibelhttp://localhost:8989/deeplxUnterstützt token Parameter oder Bearer Authentifizierung
Google Kompatibelhttp://localhost:8989/google/language/translate/v2Verwenden Sie den key Parameter oder Bearer Authentifizierung
Selection Translatorhttp://localhost:8989/hcfyUnterstützt token Parameter oder Bearer Authentifizierung

Normale Benutzer können den Dienst nutzen, indem sie die Schnittstellenadresse des Plugins gemäß dem Tabelleninhalt konfigurieren.

Befehlszeilenparameter

./mtranserver [Optionen] Optionen: -version, -v Versionsinformationen anzeigen -log-level string Protokollierungsgrad (debug, info, warn, error) (Standard "warn") -config-dir string Konfigurationsverzeichnis (Standard "~/.config/mtran/server") -model-dir string Modellverzeichnis (Standard "~/.config/mtran/models") -host string Server-Abhöradresse (Standard "0.0.0.0") -port string Server-Port (Standard "8989") -ui Web-UI aktivieren (Standard true) -offline Offline-Modus aktivieren, neue Modelle nicht automatisch herunterladen (Standard false) -worker-idle-timeout int Worker-Leerlauf-Timeout (Sekunden) (Standard 300) --download pairs... Modelle für bestimmte Sprachpaare herunterladen (z. B. --download en_zh zh_en) --languages Alle unterstützten Sprachpaare zum Download auflisten Hinweis: `--download` und `--languages` benötigen eine Netzwerkverbindung und funktionieren nicht im Offline-Modus. Beispiele: ./mtranserver --host 127.0.0.1 --port 8080 ./mtranserver --ui --offline ./mtranserver -v

Ähnliche Projekte

Hier sind einige Projekte mit ähnlichen Funktionen. Wenn Sie andere Bedürfnisse haben, können Sie diese Projekte ausprobieren:

ProjektnameSpeicherverbrauchNebenläufigkeitsleistungÜbersetzungsqualitätGeschwindigkeitWeitere Informationen
NLLBSehr hochSchlechtDurchschnittlichLangsamDie Android-Portierung RTranslator hat viele Optimierungen, aber der Ressourcenverbrauch ist immer noch hoch und es ist nicht schnell
LibreTranslateSehr hochDurchschnittlichDurchschnittlichMittelMittelklasse-CPU verarbeitet 3 Sätze/s, High-End-CPU 15-20 Sätze/s. Details
OPUS-MTHochDurchschnittlichEher schlechtSchnellLeistungstests
Andere große ModelleExtrem hochDynamischSehr gutSehr langsamHohe Hardwareanforderungen. Wenn Sie eine Übersetzung mit hoher Nebenläufigkeit benötigen, wird empfohlen, das vllm-Framework zu verwenden.
Dieses ProjektNiedrigHochDurchschnittlichExtrem schnellDurchschnittliche Antwortzeit von 50 ms pro Anfrage.

Die Daten in der Tabelle beziehen sich auf einfache Tests mit CPU, Englisch-Chinesisch-Szenarien, keine strengen Tests, Vergleich von nicht quantisierten Versionen, nur als Referenz.

Erweiterte Konfigurationsanleitung

Bitte beachten Sie die Datei API_de.md und die API-Dokumentation nach dem Start.

Star History

Star History Chart

Thanks

Bergamot Project for awesome idea of local translation.

Mozilla for the models.