logo
0
0
WeChat Login
gromitlee<lihao_offical@foxmail.com>
chore(wanwu): update readme

  元景萬悟智能體平台是一款面向企業級場景的一站式商用license友好智能體開發平台,致力於為企業提供安全、高效、合規的一站式AI解決方案。我們以「技術開放、生態共建」為核心理念,透過整合大語言模型、業務流程自動化等前沿技術,構建了覆蓋模型全生命週期管理、MCP、聯網檢索、智能體快速開發、企業知識庫建設、複雜工作流編排等完整功能體系的AI工程化平台。平台採用模組化架構設計,支援靈活的功能擴展和二次開發,在確保企業數據安全和隱私保護的同時,大幅降低了AI技術的應用門檻。無論是中小型企業快速構建智能化應用,還是大型企業實現複雜業務場景的智能化改造,元景萬悟智能體平台都能提供強有力的技術支撐,助力企業加速數字化轉型進程,實現降本增效和業務創新。



📢 生態開放

  • 外部知識庫相容:支援以 API 匯入在 Dify 中建立的知識庫,並可在智能體、文字問答、工作流中進行檢索召回。
  • MCP 廣場:支援匯入並使用不同服務商的 MCP 協定。
  • Skills:支持一句話創建 Skills 並下載,可無縫對接 OpenClaw。
  • OpenClaw沙箱:我們為每一個「龍蝦機器人」都提供了獨立Docker容器部署的選項。您可在元景萬悟中直接存取您本機部署的OpenClaw機器人。

🔥 採用寬鬆友好的 Apache 2.0 License,支援開發者自由擴展與二次開發

企業級工程化:提供從模型納管到應用落地的完整工具鏈,解決LLM技術落地「最後一公里」問題

開放開源生態:採用寬鬆友好的 Apache 2.0 License,支援開發者自由擴展與二次開發

全棧技術支援:配備專業團隊為生態夥伴提供 架構諮詢、性能優化 全週期賦能

多租戶架構:提供多租戶帳號體系,滿足用戶成本控制、數據安全隔離、業務彈性擴展、行業定制化、快速上線及生態協同等核心需求

信創適配產品已獲得《信創人工智能軟硬件系統檢驗證書》,硬體層面支援華為鯤鵬CPU,軟體層面相容歐拉、CULinux、麒麟等國產作業系統,以及TiDB平凱資料庫、OceanBase等國產資料庫。


🚩 核心功能模組

1. 模型納管(Model Hub)

▸ 支援 數百種專有/開源大模型(包括GPT、Claude、Llama等系列)的統一接入與生命週期管理

▸ 深度適配 OpenAI API 標準聯通元景 生態模型,實現異構模型的無縫切換

▸ 提供 多推理後端支援(vLLM、TGI等)與 自託管解決方案,滿足不同規模企業的算力需求

2. MCP

標準化介面:使 AI 模型能夠無縫連接各種外部工具(如 GitHub、Slack、資料庫等),而無需為每個數據源單獨開發適配器

內置豐富精選推薦:整合100+行業MCP介面,讓用戶方便快捷,輕鬆調用

3. 聯網檢索(Web Search)

即時信息獲取:具備強大的聯網檢索能力,能夠即時從互聯網獲取最新的信息。在問答場景中,當用戶的問題需要最新的新聞、數據等信息時,平台可以快速檢索並返回準確的結果,提升回答的時效性和準確性

多源數據整合:整合了多種互聯網數據源,包括新聞網站、學術資料庫、行業報告等。透過對多源數據的整合和分析,為用戶提供更全面、更深入的信息。例如,在市場調研場景中,可以同時從多個數據源獲取相關數據,進行綜合分析和評估

智能檢索策略:採用智能檢索算法,根據用戶的問題自動優化檢索策略,提高檢索效率和準確性。支援關鍵詞檢索、語義檢索等多種檢索方式,滿足不同用戶的需求。同時,對檢索結果進行智能排序和篩選,優先展示最相關、最有價值的信息

4. 可視化工作流(Workflow Studio)

▸ 透過 低程式碼拖拽畫布 快速構建複雜AI業務流程

▸ 內置 條件分支、API、大模型、知識庫、程式碼、MCP 等多種節點,支援端到端流程調試與性能分析

▸ 提供知識庫創建文檔解析→向量化→檢索→精排 的全流程知識管理能力,支援pdf/docx/txt/xlsx/csv/pptx等 多種格式 文檔,還支援網頁資源的抓取和接入

▸ 整合 多模態檢索級聯切分自適應切分,顯著提升問答準確率

6. 智能體開發框架(Agent Framework)

▸ 可基於 函數調用(Function Calling) 的Agent構建範式,支援工具擴展、私域知識庫關聯與多輪對話

▸ 支援線上調試

7. 後端即服務(BaaS)

▸ 提供 RESTful API ,支援與企業現有系統(OA/CRM/ERP等)深度整合

▸ 提供 細粒度權限控制,保障生產環境穩定運行


📢 功能比較

功能元景萬悟智能體平台Dify.AIFastgptRagflowCoze開源版
模型導入❌(內置模型)❌(內置模型)
RAG引擎
MCP✅(需安裝工具使用)
直接導入OCR
搜索增強✅(需安裝工具使用)✅(需安裝工具使用)
Agent
工作流
本地部署
license友好❌(商用有限制)❌(商用有限制)未完全開源
知識圖譜GraphRAG
多租戶❌(商用有限制)❌(商用有限制)✅(但用戶間不互通)

截止2025年8月1日對比。


🎯 典型應用場景

  • 智能客服:基於RAG+Agent實現高準確率的業務諮詢與工單處理
  • 知識管理:構建企業專屬知識庫,支援語義搜索與智能摘要生成
  • 流程自動化:透過工作流引擎實現合同審核、報銷審批等業務的AI輔助決策

平台已成功應用於 金融、工業、政務 等多個行業,助力企業將LLM技術的理論價值轉化為實際業務收益。我們誠邀開發者加入開源社區,共同推動AI技術的民主化進程。


🚀 快速開始

  • 元景萬悟智能體平台的工作流模組使用的是以下項目,可到其倉庫查看詳情。

    • v0.1.8及以前:wanwu-agentscope 項目
    • v0.2.0開始:wanwu-workflow 項目
  • 建議配置:

    • CPU:8核或16核;記憶體:32G;硬碟:200G以上;GPU:不需要
  • Docker安裝(推薦)

  1. 首次運行前

    1.1 拷貝環境變量文件

    cp .env.bak .env

    1.2 根據系統修改.env文件中的WANWU_ARCHWANWU_EXTERNAL_IP變量

    # amd64 / arm64 WANWU_ARCH=amd64 # external ip port(注意如果瀏覽器訪問非localhost部署的萬悟,則需要修改localhost為對外ip,例如192.168.xx.xx) WANWU_EXTERNAL_IP=localhost

    1.3 配置.env文件中的WANWU_BFF_JWT_SIGNING_KEY變量,一串自定義的複雜隨機字符串,用於生成jwt token

    # bff WANWU_BFF_JWT_SIGNING_KEY=

    1.4 創建docker運行網絡

    docker network create wanwu-net
  2. 啟動服務(首次運行會自動從Docker Hub拉取鏡像)

    # amd64系統執行: docker compose --env-file .env --env-file .env.image.amd64 up -d # arm64系統執行: docker compose --env-file .env --env-file .env.image.arm64 up -d
  3. 登錄系統:http://localhost:8081

    默認用戶:admin 默認密碼:Wanwu123456
  4. 關閉服務

    # amd64系統執行: docker compose --env-file .env --env-file .env.image.amd64 down # arm64系統執行: docker compose --env-file .env --env-file .env.image.arm64 down
  5. 拉取中介軟體等鏡像遇到困難?我們在網盤準備了一份鏡像備份,請依照其中的README操作:萬悟鏡像備份

  • 源碼啟動(開發)
  1. 基於上述Docker安裝步驟,將系統服務完整啟動

  2. 以後端bff-service服務為例

    2.1 停止bff-service

    make -f Makefile.develop stop-bff

    2.2 編譯bff-service可執行文件

    # amd64系統執行: make build-bff-amd64 # arm64系統執行: make build-bff-arm64

    2.3 啟動bff-service

    make -f Makefile.develop run-bff

📦 沙箱啟動

萬悟沙箱可用於一句話創建 Skills 等功能,需要單獨啟動;注意,創建 Skills 時選用的模型,在導入時必須指定模型上下文長度 >= 32000

  1. 基於上述 Docker 安裝步驟,完成首次運行前的配置

  2. 啟動沙箱(以 amd64 為例)

    docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.wga-sandbox.yaml up -d

⬆️ 版本升級

  1. 基於上述Docker安裝步驟,將系統服務完整停止

  2. 更新至最新版本代碼

    2.1 wanwu倉庫目錄內,更新代碼

    # 切換到main分支 git checkout main # 拉取最新代碼 git pull

    2.2 重新拷貝環境變量文件(如果有環境變量修改,請自行重新修改)

    # 備份當前.env文件 cp .env .env.old # 拷貝.env文件 cp .env.bak .env
  3. 基於上述Docker安裝步驟,將系統服務完整啟動


➡️ 信創適配(TiDB & OceanBase)

  1. 基於上述Docker安裝步驟,完成首次運行前的設定

  2. 根據需要修改.env文件中的WANWU_DB_NAME變量(以TiDB為例)

    # db: mysql | tidb | oceanbase WANWU_DB_NAME=tidb
  3. 啟動資料庫(以amd64為例)

    # tidb docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.tidb.yaml up -d # oceanbase docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.oceanbase.yaml up -d
  4. 基於上述Docker安裝步驟,將系統服務完整啟動

產品已獲得《信創人工智能軟硬件系統檢驗證書》,硬體層面支援華為鯤鵬CPU,軟體層面相容歐拉、CULinux、麒麟等國產作業系統,以及TiDB平凱資料庫、OceanBase等國產資料庫。


📑 使用萬悟

為了幫助您快速上手本項目,我們強烈推薦先查看 文檔操作手冊。我們為用戶提供了交互式、結構化的操作指南,您可以直接在其中查看操作說明、接口文檔等,極大地降低了學習和使用的門檻。詳細功能清單如下:

以下是您提供的 Markdown 表格內容的繁體中文翻譯,保留原有格式與連結:

功能詳細描述
模型管理支援使用者匯入包括聯通元景、OpenAI-API-compatible、Ollama、通義千問、火山引擎等模型供應商的 LLM、Embedding、Rerank 模型。 模型匯入方式-詳細版
知識庫在文件解析能力方面:支援12種文件類型的上傳,支援 URL 解析;文件解析方式支援 OCR 與MinerU 模型解析(適用於標題、表格、公式等場景)的私有化部署與接入,文件分段設定支援通用分段和父子分段。在調優能力方面:支援知識圖譜、元數據管理及元數據過濾查詢,支援分段內容增刪改,支援對分段設定關鍵字標籤提升召回效果,支援分段啟停操作,支援命中測試等功能。在檢索能力方面:支援向量檢索、全文檢索、混合檢索等多種檢索模式;在問答能力方面:支援自動引用出處,支援圖文並茂的生成答案。
資源庫同時支援匯入自己的 MCP 服務或自訂工具,並在工作流和智能體中使用。
安全護欄使用者可以建立敏感詞表,控制模型回饋結果的安全性。
文本問答基於私人知識庫的專屬知識顧問,支援知識庫管理、知識問答、知識總結、個性參數配置、安全護欄、檢索配置等功能,提高知識管理與學習的效率。支援公開或私密發布文本問答應用,支援發布為 API。
工作流可擴展智能體能力邊界,由節點組成,提供視覺化工作流編輯能力,使用者可編排多個不同的工作流節點,實現複雜且穩定的業務流程。支援公開或私密發布工作流應用,支援發布為 API,支援匯入匯出。
智能體基於使用者使用場景和業務需求建立智能體,支援選模型、設定提示詞、聯網檢索、知識庫選擇、MCP、工作流、自訂工具等。支援公開或私密發布智能體應用,支援發布為 API 和 Web Url。
應用廣場支援使用者體驗已發布的應用,包括文本問答、工作流和智能體。
MCP廣場內建 100+ 精選行業 MCP server,即選即用。
模板廣場內建 50 + 優選行業提示詞,即選即用
設定平台支援多租戶,允許使用者進行組織、角色、使用者管理、平台基礎配置。
知識圖譜UniAI-GraphRAGUniAI-GraphRAG 結合領域知識本體建模、知識圖譜與社區報告構建、圖檢索增強生成等技術,可有效提升知識問答的完整性、邏輯性與可信度。可顯著提升跨多文檔總結與多跳關係推理等複雜問答場景的問答效果。

🚀高精度知識庫

萬悟RAG已在業界權威公開評測集MultiHop-RAG數據集上完成檢索召回性能指標評測:

image

**檢索性能綜合評價指標:F1值(檢索準確率和召回率的調和平均值) **

1)萬悟RAG比Dify高:14%

2)萬悟GraphRAG比Dify高:17.2%

3)萬悟GraphRAG比開源-LightRAG高:3.5%


📰 TODO LIST

  • Skills
  • 支援資料庫導入知識庫
  • 通用智能體
  • A2A協議
  • 智能體和模型測評
  • Trace追蹤

💬 Q & A

  • 【Q】Linux系統Elastic(elastic-wanwu)啟動報錯:Memory limited without swap. 【A】關閉服務,執行 sudo sysctl -w vm.max_map_count=262144 後,重啟服務

  • 【Q】系統服務正常啟動後,mysql-wanwu-setup和elastic-wanwu-setup容器退出:狀態碼為Exited (0) 【A】正常,這兩個容器用於完成一些初始化任務,執行完成後會自動退出

  • 【Q】模型導入相關 【A】以導入聯通元景LLM為例(導入OpenAI-API-compatible或導入Embedding、Rerank類型類似):

    1. 聯通元景MaaS雲LLM的Open API接口例如:https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions 2. 用戶在聯通元景MaaS雲上申請到的API Key形如:sk-abc********************xyz 3. 確認API與Key可正確請求LLM,以請求yuanjing-70b-chat為例: curl --location 'https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions' \ --header 'Content-Type: application/json' \ --header 'Accept: application/json' \ --header 'Authorization: Bearer sk-abc********************xyz' \ --data '{ "model": "yuanjing-70b-chat", "messages": [{ "role": "user", "content": "你好" }] }' 4. 導入模型: 4.1【模型名稱】必須為上述curl中可以正確請求的model;例如 yuanjing-70b-chat 4.2【API Key】必須為上述curl中可以正確請求的key;例如 sk-abc********************xyz(注意不填Bearer前綴) 4.3【推理URL】必須為上述curl中可以正確請求的url;例如 https://maas.ai-yuanjing.com/openapi/compatible-mode/v1(注意不帶 /chat/completions 後綴) 5. 導入Embedding模型同上述導入LLM,注意推理URL不帶 /embeddings 後綴 6. 導入Rerank模型同上述導入LLM,注意推理URL不帶 /rerank 後綴

🔗 致謝


⚖️ 許可證

元景萬悟智能體平台根據Apache License 2.0發布。

📩 聯繫我們

QQ 群1(已滿):490071123QQ 群2(已滿):1026898615QQ 群3:1019579243
imageimageimage