logo
0
1
WeChat Login
xxnuo<54252779+xxnuo@users.noreply.github.com>
docs: add deeplx

MTranServer

中文 | English | 日本語 | Français | Deutsch

一个超低资源消耗速度超快的离线翻译模型服务器,无需显卡。单个请求平均响应时间 50 毫秒。支持全世界主要语言的翻译。

注意本模型服务器专注于离线翻译响应速度跨平台部署本地运行 达到 无限免费翻译 的设计目标,受限于模型大小和优化程度,所以翻译质量肯定是不如大模型翻译的效果。需要高质量的翻译建议使用在线大模型 API。

v4 优化了内存占用,速度进一步提升,增强了稳定性,如果你在使用旧版建议立即升级!

在线试用 Demo

网站TOKEN其他接口提供者
ipacel.cc__IpacEL_MT_API_TOKEN__沉浸式翻译: https://MTranServer.ipacel.cc/imme?token=__IpacEL_MT_API_TOKEN__@ApliNi

感谢社区贡献者为用户提供试用服务!

使用说明

现在支持桌面端一键启动!支持 Windows、Mac、Linux。

桌面端

手动下载

前往 Releases 下载对应平台最新桌面端,直接安装启动,即可使用。

桌面端启动后会创建一个托盘菜单,通过菜单可以方便的管理服务。

程序自带的一个简单 UI 的地址和在线调试文档。

具体使用说明可以直接跳转到 生态项目

预览(最新版有更新):

UI

文档

服务端

推荐使用桌面端或者 Docker 部署,性能更佳使用方便。服务端手动部署供专业用户使用。

快速开始

程序员朋友可以通过命令行直接启动服务器端:

npx mtranserver@latest

npx 可以替换为你喜欢的任意一个包管理器,比如 bunxpnpx 等。

重要提示:

首次翻译某个语言对时,服务器会自动下载对应的翻译模型(除非启用了离线模式),这个过程可能需要等待一段时间(取决于网络速度和模型大小)。 模型下载完成后,翻译请求将享受毫秒级的响应速度。建议在正式使用前先测试一次翻译,让服务器预先下载和加载模型。程序经常更新,如果遇到问题,可以尝试更新到最新版本。

快速安装

npm i -g mtranserver@latest

npm 可以替换为你喜欢的任意一个包管理器,比如 bunpnpm 等。

然后启动 mtranserver 即可。

Docker Compose 部署

找一个空目录,编写 compose.yml 文件,内容如下:

services: mtranserver: image: xxnuo/mtranserver:latest container_name: mtranserver restart: unless-stopped ports: - "8989:8989" environment: - MT_HOST=0.0.0.0 - MT_PORT=8989 - MT_OFFLINE=false # - MT_API_TOKEN=your_secret_token_here volumes: - ./models:/app/models
docker pull xxnuo/mtranserver:latest docker compose up -d

生态项目

IDE 插件

MTranCode 代码注释翻译插件

支持 VS Code、Cursor、Augment 等 VS Code 系列 IDE

在插件商店搜索 MTranCode 即可安装注释翻译插件

插件默认接口会调用 http://localhost:8989 接口的服务器进行注释、代码的翻译,可在设置中调整。

该插件由 vscode-comment-translate fork 而来。

浏览器插件

TODO: 火热开发中

如果你开发了衍生项目,欢迎提交 PR,我会在生态项目中添加你的项目。

对了项目已经发布到 npm 包,可以直接在其他程序中调用简单的库接口实现翻译功能,具体信息查看 ts 类型说明。

兼容接口

服务器提供了多个翻译插件的兼容接口:

接口方法说明支持的插件
/immePOST沉浸式翻译插件接口沉浸式翻译
/kissPOST简约翻译插件接口简约翻译
/deeplPOSTDeepL API v2 兼容接口支持 DeepL API 的客户端
/deeplxPOSTDeepLX 兼容接口支持 DeepLX 接口的客户端
/hcfyPOST划词翻译兼容接口划词翻译
/hcfyPOST划词翻译兼容接口划词翻译
/google/language/translate/v2POSTGoogle Translate API v2 兼容接口支持 Google Translate API 的客户端
/google/translate_a/singleGETGoogle translate_a/single 兼容接口支持 Google 网页翻译的客户端

插件配置说明:

注:

  • 沉浸式翻译设置页面,开发者模式中启用Beta特性,即可在翻译服务中看到自定义 API 设置(官方图文教程)。然后将自定义 API 设置每秒最大请求数拉高以充分发挥服务器性能准备体验飞一般的感觉。我设置的是每秒最大请求数512每次请求最大段落数1。你可以根据自己服务器配置设置。

  • 简约翻译设置页面,接口设置中滚动到下面,即可看到自定义接口 Custom。同理,设置最大请求并发数量每次请求间隔时间以充分发挥服务器性能。我设置的是最大请求并发数量100每次请求间隔时间1。你可以根据自己服务器配置设置。

接下来按下表的设置方法设置插件的自定义接口地址。

名称URL插件设置
沉浸式翻译无密码http://localhost:8989/imme自定义API 设置 - API URL
沉浸式翻译有密码http://localhost:8989/imme?token=your_token同上,需要更改 URL 尾部的 your_token 为你的 MT_API_TOKEN
简约翻译无密码http://localhost:8989/kiss接口设置 - Custom - URL
简约翻译有密码http://localhost:8989/kiss同上,需要 KEYyour_token
DeepL 兼容http://localhost:8989/deepl使用 DeepL-Auth-KeyBearer 认证
DeepLX 兼容http://localhost:8989/deeplx支持 token 参数或 Bearer 认证
Google 兼容http://localhost:8989/google/language/translate/v2使用 key 参数或 Bearer 认证
划词翻译http://localhost:8989/hcfy支持 token 参数或 Bearer 认证

普通用户参照表格内容设置好插件使用的接口地址就可以使用了。

命令行参数

./mtranserver [选项] 选项: -version, -v 显示版本信息 -log-level string 日志级别 (debug, info, warn, error) (默认 "warn") -config-dir string 配置目录 (默认 "~/.config/mtran/server") -model-dir string 模型目录 (默认 "~/.config/mtran/models") -host string 服务器监听地址 (默认 "0.0.0.0") -port string 服务器端口 (默认 "8989") -ui 启用 Web UI (默认 true) -offline 启用离线模式,不自动下载新模型 (默认 false) -worker-idle-timeout int Worker 空闲超时时间(秒) (默认 300) --download pairs... 下载指定语言对的模型 (例如 --download en_zh zh_en) --languages 列出所有支持下载的语言对 注意:`--download` 和 `--languages` 命令需要联网,无法在离线模式下工作。 示例: ./mtranserver --host 127.0.0.1 --port 8080 ./mtranserver --ui --offline ./mtranserver -v

同类项目

列出一些同类功能的项目,如果有其他需求的用户可以尝试这些项目:

项目名称内存占用并发性能翻译效果速度其他信息
NLLB很高一般大佬移植到了 Android 的 RTranslator 有很多优化,但占用仍然高,速度也不快
LibreTranslate很高一般一般中等中端 CPU 每秒处理 3 句,高端 CPU 每秒处理 15-20 句,详情
OPUS-MT一般略差性能测试
其他大模型超高动态非常好很慢对硬件要求很高,如果需要高并发翻译建议使用 vllm 框架
本项目一般极快单个请求平均响应时间 50ms

表中为 CPU、英译中场景下的简单测试,非严格测试,非量化版本对比,仅供参考。

高级配置说明

请参考 API.md 文件和启动后的 API 文档。

Star History

Star History Chart

Thanks

Bergamot Project for awesome idea of local translation.

Mozilla for the models.