元景萬悟智能體平台是一款面向企業級場景的一站式、商用license友好的智能體開發平台,致力於為企業提供安全、高效、合規的一站式AI解決方案。我們以「技術開放、生態共建」為核心理念,透過整合大語言模型、業務流程自動化等前沿技術,構建了覆蓋模型全生命週期管理、MCP、聯網檢索、智能體快速開發、企業知識庫建設、複雜工作流編排等完整功能體系的AI工程化平台。平台採用模組化架構設計,支援靈活的功能擴展和二次開發,在確保企業數據安全和隱私保護的同時,大幅降低了AI技術的應用門檻。無論是中小型企業快速構建智能化應用,還是大型企業實現複雜業務場景的智能化改造,元景萬悟智能體平台都能提供強有力的技術支撐,助力企業加速數字化轉型進程,實現降本增效和業務創新。
✔ 企業級工程化:提供從模型納管到應用落地的完整工具鏈,解決LLM技術落地「最後一公里」問題
✔ 開放開源生態:採用寬鬆友好的 Apache 2.0 License,支援開發者自由擴展與二次開發
✔ 全棧技術支援:配備專業團隊為生態夥伴提供 架構諮詢、性能優化 全週期賦能
✔ 多租戶架構:提供多租戶帳號體系,滿足用戶成本控制、數據安全隔離、業務彈性擴展、行業定制化、快速上線及生態協同等核心需求
✔ 信創適配:產品已獲得《信創人工智能軟硬件系統檢驗證書》,硬體層面支援華為鯤鵬CPU,軟體層面相容歐拉、CULinux、麒麟等國產作業系統,以及TiDB平凱資料庫、OceanBase等國產資料庫。
▸ 支援 數百種專有/開源大模型(包括GPT、Claude、Llama等系列)的統一接入與生命週期管理
▸ 深度適配 OpenAI API 標準 及 聯通元景 生態模型,實現異構模型的無縫切換
▸ 提供 多推理後端支援(vLLM、TGI等)與 自託管解決方案,滿足不同規模企業的算力需求
▸ 標準化介面:使 AI 模型能夠無縫連接各種外部工具(如 GitHub、Slack、資料庫等),而無需為每個數據源單獨開發適配器
▸ 內置豐富精選推薦:整合100+行業MCP介面,讓用戶方便快捷,輕鬆調用
▸ 即時信息獲取:具備強大的聯網檢索能力,能夠即時從互聯網獲取最新的信息。在問答場景中,當用戶的問題需要最新的新聞、數據等信息時,平台可以快速檢索並返回準確的結果,提升回答的時效性和準確性
▸ 多源數據整合:整合了多種互聯網數據源,包括新聞網站、學術資料庫、行業報告等。透過對多源數據的整合和分析,為用戶提供更全面、更深入的信息。例如,在市場調研場景中,可以同時從多個數據源獲取相關數據,進行綜合分析和評估
▸ 智能檢索策略:採用智能檢索算法,根據用戶的問題自動優化檢索策略,提高檢索效率和準確性。支援關鍵詞檢索、語義檢索等多種檢索方式,滿足不同用戶的需求。同時,對檢索結果進行智能排序和篩選,優先展示最相關、最有價值的信息
▸ 透過 低程式碼拖拽畫布 快速構建複雜AI業務流程
▸ 內置 條件分支、API、大模型、知識庫、程式碼、MCP 等多種節點,支援端到端流程調試與性能分析
▸ 提供知識庫創建→ 文檔解析→向量化→檢索→精排 的全流程知識管理能力,支援pdf/docx/txt/xlsx/csv/pptx等 多種格式 文檔,還支援網頁資源的抓取和接入
▸ 整合 多模態檢索 、級聯切分 與 自適應切分,顯著提升問答準確率
▸ 可基於 函數調用(Function Calling) 的Agent構建範式,支援工具擴展、私域知識庫關聯與多輪對話
▸ 支援線上調試
▸ 提供 RESTful API ,支援與企業現有系統(OA/CRM/ERP等)深度整合
▸ 提供 細粒度權限控制,保障生產環境穩定運行
| 功能 | 元景萬悟智能體平台 | Dify.AI | Fastgpt | Ragflow | Coze開源版 |
|---|---|---|---|---|---|
| 模型導入 | ✅ | ✅ | ❌(內置模型) | ✅ | ❌(內置模型) |
| RAG引擎 | ✅ | ✅ | ✅ | ✅ | ✅ |
| MCP | ✅ | ✅ | ✅ | ✅(需安裝工具使用) | ❌ |
| 直接導入OCR | ✅ | ❌ | ❌ | ❌ | ❌ |
| 搜索增強 | ✅ | ✅(需安裝工具使用) | ✅ | ✅(需安裝工具使用) | ✅ |
| Agent | ✅ | ✅ | ✅ | ✅ | ✅ |
| 工作流 | ✅ | ✅ | ✅ | ✅ | ✅ |
| 本地部署 | ✅ | ✅ | ✅ | ✅ | ✅ |
| license友好 | ✅ | ❌(商用有限制) | ❌(商用有限制) | 未完全開源 | ✅ |
| 知識圖譜GraphRAG | ✅ | ❌ | ❌ | ✅ | ❌ |
| 多租戶 | ✅ | ❌(商用有限制) | ❌(商用有限制) | ✅ | ✅(但用戶間不互通) |
截止2025年8月1日對比。
平台已成功應用於 金融、工業、政務 等多個行業,助力企業將LLM技術的理論價值轉化為實際業務收益。我們誠邀開發者加入開源社區,共同推動AI技術的民主化進程。
元景萬悟智能體平台的工作流模組使用的是以下項目,可到其倉庫查看詳情。
建議配置:
Docker安裝(推薦)
首次運行前
1.1 拷貝環境變量文件
cp .env.bak .env
1.2 根據系統修改.env文件中的WANWU_ARCH、WANWU_EXTERNAL_IP變量
# amd64 / arm64 WANWU_ARCH=amd64 # external ip port(注意如果瀏覽器訪問非localhost部署的萬悟,則需要修改localhost為對外ip,例如192.168.xx.xx) WANWU_EXTERNAL_IP=localhost
1.3 配置.env文件中的WANWU_BFF_JWT_SIGNING_KEY變量,一串自定義的複雜隨機字符串,用於生成jwt token
# bff WANWU_BFF_JWT_SIGNING_KEY=
1.4 創建docker運行網絡
docker network create wanwu-net
啟動服務(首次運行會自動從Docker Hub拉取鏡像)
# amd64系統執行:
docker compose --env-file .env --env-file .env.image.amd64 up -d
# arm64系統執行:
docker compose --env-file .env --env-file .env.image.arm64 up -d
默認用戶:admin 默認密碼:Wanwu123456
關閉服務
# amd64系統執行:
docker compose --env-file .env --env-file .env.image.amd64 down
# arm64系統執行:
docker compose --env-file .env --env-file .env.image.arm64 down
拉取中介軟體等鏡像遇到困難?我們在網盤準備了一份鏡像備份,請依照其中的README操作:萬悟鏡像備份
基於上述Docker安裝步驟,將系統服務完整啟動
以後端bff-service服務為例
2.1 停止bff-service
make -f Makefile.develop stop-bff
2.2 編譯bff-service可執行文件
# amd64系統執行: make build-bff-amd64 # arm64系統執行: make build-bff-arm64
2.3 啟動bff-service
make -f Makefile.develop run-bff
萬悟沙箱可用於一句話創建 Skills 等功能,需要單獨啟動;注意,創建 Skills 時選用的模型,在導入時必須指定模型上下文長度 >= 32000
基於上述 Docker 安裝步驟,完成首次運行前的配置
啟動沙箱(以 amd64 為例)
docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.wga-sandbox.yaml up -d
基於上述Docker安裝步驟,將系統服務完整停止
更新至最新版本代碼
2.1 wanwu倉庫目錄內,更新代碼
# 切換到main分支
git checkout main
# 拉取最新代碼
git pull
2.2 重新拷貝環境變量文件(如果有環境變量修改,請自行重新修改)
# 備份當前.env文件
cp .env .env.old
# 拷貝.env文件
cp .env.bak .env
基於上述Docker安裝步驟,將系統服務完整啟動
基於上述Docker安裝步驟,完成首次運行前的設定
根據需要修改.env文件中的WANWU_DB_NAME變量(以TiDB為例)
# db: mysql | tidb | oceanbase
WANWU_DB_NAME=tidb
啟動資料庫(以amd64為例)
# tidb
docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.tidb.yaml up -d
# oceanbase
docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.oceanbase.yaml up -d
基於上述Docker安裝步驟,將系統服務完整啟動
✔ 產品已獲得《信創人工智能軟硬件系統檢驗證書》,硬體層面支援華為鯤鵬CPU,軟體層面相容歐拉、CULinux、麒麟等國產作業系統,以及TiDB平凱資料庫、OceanBase等國產資料庫。
為了幫助您快速上手本項目,我們強烈推薦先查看 文檔操作手冊。我們為用戶提供了交互式、結構化的操作指南,您可以直接在其中查看操作說明、接口文檔等,極大地降低了學習和使用的門檻。詳細功能清單如下:
以下是您提供的 Markdown 表格內容的繁體中文翻譯,保留原有格式與連結:
| 功能 | 詳細描述 |
|---|---|
| 模型管理 | 支援使用者匯入包括聯通元景、OpenAI-API-compatible、Ollama、通義千問、火山引擎等模型供應商的 LLM、Embedding、Rerank 模型。 模型匯入方式-詳細版 |
| 知識庫 | 在文件解析能力方面:支援12種文件類型的上傳,支援 URL 解析;文件解析方式支援 OCR 與MinerU 模型解析(適用於標題、表格、公式等場景)的私有化部署與接入,文件分段設定支援通用分段和父子分段。在調優能力方面:支援知識圖譜、元數據管理及元數據過濾查詢,支援分段內容增刪改,支援對分段設定關鍵字標籤提升召回效果,支援分段啟停操作,支援命中測試等功能。在檢索能力方面:支援向量檢索、全文檢索、混合檢索等多種檢索模式;在問答能力方面:支援自動引用出處,支援圖文並茂的生成答案。 |
| 資源庫 | 同時支援匯入自己的 MCP 服務或自訂工具,並在工作流和智能體中使用。 |
| 安全護欄 | 使用者可以建立敏感詞表,控制模型回饋結果的安全性。 |
| 文本問答 | 基於私人知識庫的專屬知識顧問,支援知識庫管理、知識問答、知識總結、個性參數配置、安全護欄、檢索配置等功能,提高知識管理與學習的效率。支援公開或私密發布文本問答應用,支援發布為 API。 |
| 工作流 | 可擴展智能體能力邊界,由節點組成,提供視覺化工作流編輯能力,使用者可編排多個不同的工作流節點,實現複雜且穩定的業務流程。支援公開或私密發布工作流應用,支援發布為 API,支援匯入匯出。 |
| 智能體 | 基於使用者使用場景和業務需求建立智能體,支援選模型、設定提示詞、聯網檢索、知識庫選擇、MCP、工作流、自訂工具等。支援公開或私密發布智能體應用,支援發布為 API 和 Web Url。 |
| 應用廣場 | 支援使用者體驗已發布的應用,包括文本問答、工作流和智能體。 |
| MCP廣場 | 內建 100+ 精選行業 MCP server,即選即用。 |
| 模板廣場 | 內建 50 + 優選行業提示詞,即選即用 |
| 設定 | 平台支援多租戶,允許使用者進行組織、角色、使用者管理、平台基礎配置。 |
| 知識圖譜UniAI-GraphRAG | UniAI-GraphRAG 結合領域知識本體建模、知識圖譜與社區報告構建、圖檢索增強生成等技術,可有效提升知識問答的完整性、邏輯性與可信度。可顯著提升跨多文檔總結與多跳關係推理等複雜問答場景的問答效果。 |
萬悟RAG已在業界權威公開評測集MultiHop-RAG數據集上完成檢索召回性能指標評測:
**檢索性能綜合評價指標:F1值(檢索準確率和召回率的調和平均值) **
1)萬悟RAG比Dify高:14%
2)萬悟GraphRAG比Dify高:17.2%
3)萬悟GraphRAG比開源-LightRAG高:3.5%
【Q】Linux系統Elastic(elastic-wanwu)啟動報錯:Memory limited without swap.
【A】關閉服務,執行 sudo sysctl -w vm.max_map_count=262144 後,重啟服務
【Q】系統服務正常啟動後,mysql-wanwu-setup和elastic-wanwu-setup容器退出:狀態碼為Exited (0) 【A】正常,這兩個容器用於完成一些初始化任務,執行完成後會自動退出
【Q】模型導入相關 【A】以導入聯通元景LLM為例(導入OpenAI-API-compatible或導入Embedding、Rerank類型類似):
1. 聯通元景MaaS雲LLM的Open API接口例如:https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions 2. 用戶在聯通元景MaaS雲上申請到的API Key形如:sk-abc********************xyz 3. 確認API與Key可正確請求LLM,以請求yuanjing-70b-chat為例: curl --location 'https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions' \ --header 'Content-Type: application/json' \ --header 'Accept: application/json' \ --header 'Authorization: Bearer sk-abc********************xyz' \ --data '{ "model": "yuanjing-70b-chat", "messages": [{ "role": "user", "content": "你好" }] }' 4. 導入模型: 4.1【模型名稱】必須為上述curl中可以正確請求的model;例如 yuanjing-70b-chat 4.2【API Key】必須為上述curl中可以正確請求的key;例如 sk-abc********************xyz(注意不填Bearer前綴) 4.3【推理URL】必須為上述curl中可以正確請求的url;例如 https://maas.ai-yuanjing.com/openapi/compatible-mode/v1(注意不帶 /chat/completions 後綴) 5. 導入Embedding模型同上述導入LLM,注意推理URL不帶 /embeddings 後綴 6. 導入Rerank模型同上述導入LLM,注意推理URL不帶 /rerank 後綴
元景萬悟智能體平台根據Apache License 2.0發布。
| QQ 群1(已滿):490071123 | QQ 群2(已滿):1026898615 | QQ 群3:1019579243 |
|---|---|---|