logo
0
0
WeChat Login
gromitlee<lihao_offical@foxmail.com>
chore(wanwu): update readme

  元景万悟智能体平台是一款面向企业级场景的一站式商用license友好智能体开发平台,致力于为企业提供安全、高效、合规的一站式AI解决方案。我们以"技术开放、生态共建"为核心理念,通过整合大语言模型、业务流程自动化等前沿技术,构建了覆盖模型全生命周期管理、MCP、联网检索、智能体快速开发、企业知识库建设、复杂工作流编排等完整功能体系的AI工程化平台。平台采用模块化架构设计,支持灵活的功能扩展和二次开发,在确保企业数据安全和隐私保护的同时,大幅降低了AI技术的应用门槛。无论是中小型企业快速构建智能化应用,还是大型企业实现复杂业务场景的智能化改造,元景万悟智能体平台都能提供强有力的技术支撑,助力企业加速数字化转型进程,实现降本增效和业务创新。



📢 生态开放

  • 外部知识库兼容:支持API导入Dify内创建的知识库,并在智能体、文本问答、工作流中进行检索召回
  • MCP广场:支持导入并使用不同服务商的MCP协议
  • Skills:支持一句话创建Skills并下载,可无缝对接OpenClaw
  • OpenClaw沙箱:我们为每一个“龙虾机器人”都提供了独立Docker容器部署的选项。可在元景万悟中直接访问您本地部署的OpenClaw机器人。

🔥 采用宽松友好的 Apache 2.0 License,支持开发者自由扩展与二次开发

企业级工程化:提供从模型纳管到应用落地的完整工具链,解决LLM技术落地"最后一公里"问题

开放开源生态:采用宽松友好的 Apache 2.0 License,支持开发者自由扩展与二次开发

全栈技术支持:配备专业团队为生态伙伴提供 架构咨询、性能优化 全周期赋能

多租户架构:提供多租户账号体系,满足用户成本控制、数据安全隔离、业务弹性扩展、行业定制化、快速上线及生态协同等核心需求

信创适配:已获得《信创人工智能软硬件系统检验证书》,硬件层面支持华为鲲鹏CPU,软件层面兼容欧拉、CULinux、麒麟等国产操作系统,以及TiDB平凯数据库、OceanBase等国产数据库


🚩 核心功能模块

1. 模型纳管(Model Hub)

▸ 支持 数百种专有/开源大模型(包括GPT、Claude、Llama等系列)的统一接入与生命周期管理

▸ 深度适配 OpenAI API 标准联通元景 生态模型,实现异构模型的无缝切换

▸ 提供 多推理后端支持(vLLM、TGI等)与 自托管解决方案,满足不同规模企业的算力需求

2. MCP

标准化接口:使 AI 模型能够无缝连接各种外部工具(如 GitHub、Slack、数据库等),而无需为每个数据源单独开发适配器

内置丰富精选推荐:整合100+行业MCP接口,让用户方便快捷,轻松调用

3. 联网检索(Web Search)

实时信息获取:具备强大的联网检索能力,能够实时从互联网获取最新的信息。在问答场景中,当用户的问题需要最新的新闻、数据等信息时,平台可以快速检索并返回准确的结果,提升回答的时效性和准确性

多源数据整合:整合了多种互联网数据源,包括新闻网站、学术数据库、行业报告等。通过对多源数据的整合和分析,为用户提供更全面、更深入的信息。例如,在市场调研场景中,可以同时从多个数据源获取相关数据,进行综合分析和评估

智能检索策略:采用智能检索算法,根据用户的问题自动优化检索策略,提高检索效率和准确性。支持关键词检索、语义检索等多种检索方式,满足不同用户的需求。同时,对检索结果进行智能排序和筛选,优先展示最相关、最有价值的信息

4. 可视化工作流(Workflow Studio)

▸ 通过 低代码拖拽画布 快速构建复杂AI业务流程

▸ 内置 条件分支、API、大模型、知识库、代码、MCP 等多种节点,支持端到端流程调试与性能分析

▸ 提供知识库创建文档解析→向量化→检索→精排 的全流程知识管理能力,支持pdf/docx/txt/xlsx/csv/pptx等 多种格式 文档,还支持网页资源的抓取和接入

▸ 集成 多模态检索级联切分自适应切分,显著提升问答准确率

▸ 文档解析方式支持OCR和 MinerU模型解析(标题/表格/公式等场景)的私有化部署及接入

6. 智能体开发框架(Agent Framework)

▸ 可基于 函数调用(Function Calling) 的Agent构建范式,支持工具扩展、私域知识库关联与多轮对话

▸ 支持在线调试

7. 后端即服务(BaaS)

▸ 提供 RESTful API ,支持与企业现有系统(OA/CRM/ERP等)深度集成

▸ 提供 细粒度权限控制,保障生产环境稳定运行


📢 功能比较

功能元景万悟智能体平台Dify.AIFastgptRagflowCoze开源版
模型导入❌(内置模型)❌(内置模型)
RAG引擎
MCP✅(需安装工具使用)
直接导入OCR
搜索增强✅(需安装工具使用)✅(需安装工具使用)
Agent
工作流
本地部署
license友好❌(商用有限制)❌(商用有限制)未完全开源
知识图谱GraphRAG
多租户❌(商用有限制)❌(商用有限制)✅(但用户间不互通)

截止2025年8月1日对比。


🎯 典型应用场景

  • 智能客服:基于RAG+Agent实现高准确率的业务咨询与工单处理
  • 知识管理:构建企业专属知识库,支持语义搜索与智能摘要生成
  • 流程自动化:通过工作流引擎实现合同审核、报销审批等业务的AI辅助决策

平台已成功应用于 金融、工业、政务 等多个行业,助力企业将LLM技术的理论价值转化为实际业务收益。我们诚邀开发者加入开源社区,共同推动AI技术的民主化进程。


🚀 快速开始

  • 元景万悟智能体平台的工作流模块使用的是以下项目,可到其仓库查看详情。

    • v0.1.8及以前:wanwu-agentscope 项目
    • v0.2.0开始:wanwu-workflow 项目
  • 推荐配置:

    • CPU:8核或16核 ;内存:32G ;硬盘200G以上;GPU不需要
  • Docker安装(推荐)

  1. 首次运行前

    1.1 拷贝环境变量文件

    cp .env.bak .env

    1.2 根据系统修改.env文件中的WANWU_ARCHWANWU_EXTERNAL_IP变量

    # amd64 / arm64 WANWU_ARCH=amd64 # external ip port(注意如果浏览器访问非localhost部署的万悟,则需要修改localhost为对外ip,例如192.168.xx.xx) WANWU_EXTERNAL_IP=localhost

    1.3 配置.env文件中的WANWU_BFF_JWT_SIGNING_KEY变量,一串自定义复杂随机字符串,用于生成jwt token

    # bff WANWU_BFF_JWT_SIGNING_KEY=

    1.4 创建docker运行网络

    docker network create wanwu-net
  2. 启动服务(首次运行会自动从Docker Hub拉取镜像)

    # amd64系统执行: docker compose --env-file .env --env-file .env.image.amd64 up -d # arm64系统执行: docker compose --env-file .env --env-file .env.image.arm64 up -d
  3. 登录系统:http://localhost:8081

    默认用户:admin 默认密码:Wanwu123456
  4. 关闭服务

    # amd64系统执行: docker compose --env-file .env --env-file .env.image.amd64 down # arm64系统执行: docker compose --env-file .env --env-file .env.image.arm64 down
  5. 拉取中间件等镜像遇到困难?我们在网盘准备了一份镜像备份,请按照其中README操作:万悟镜像备份

  • 源码启动(开发)
  1. 基于上述Docker安装步骤,将系统服务完整启动

  2. 以后端bff-service服务为例

    2.1 停止bff-service

    make -f Makefile.develop stop-bff

    2.2 编译bff-service可执行文件

    # amd64系统执行: make build-bff-amd64 # arm64系统执行: make build-bff-arm64

    2.3 启动bff-service

    make -f Makefile.develop run-bff

📦 沙箱启动

万悟沙箱可用于一句话创建Skills等功能,需要单独启动;注意,创建Skills时选用的模型,在导入时必须指定模型上下文长度 >= 32000

  1. 基于上述Docker安装步骤,完成首次运行前的配置

  2. 启动沙箱(以amd64为例)

docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.wga-sandbox.yaml up -d

⬆️ 版本升级

  1. 基于上述Docker安装步骤,将系统服务完整停止

  2. 更新至最新版本代码

    2.1 wanwu仓库目录内,更新代码

    # 切换到main分支 git checkout main # 拉取最新代码 git pull

    2.2 重新拷贝环境变量文件(如果有环境变量修改,请自行重新修改)

    # 备份当前.env文件 cp .env .env.old # 拷贝.env文件 cp .env.bak .env
  3. 基于上述Docker安装步骤,将系统服务完整启动


➡️ 信创适配(TiDB & OceanBase)

  1. 基于上述Docker安装步骤,完成首次运行前的配置

  2. 根据需要修改.env文件中的WANWU_DB_NAME变量(以TiDB为例)

    # db: mysql | tidb | oceanbase WANWU_DB_NAME=tidb
  3. 启动数据库(以amd64为例)

    # tidb docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.tidb.yaml up -d # oceanbase docker compose --env-file .env --env-file .env.image.amd64 -f docker-compose.oceanbase.yaml up -d
  4. 基于上述Docker安装步骤,将系统服务完整启动

产品已获得《信创人工智能软硬件系统检验证书》,硬件层面支持华为鲲鹏CPU,软件层面兼容欧拉、CULinux、麒麟等国产操作系统,以及TiDB平凯数据库、OceanBase等国产数据库。


📑 使用万悟

为了帮助您快速上手本项目,我们强烈推荐先查看 文档操作手册。我们为用户提供了交互式、结构化的操作指南,您可以直接在其中查看操作说明、接口文档等,极大地降低了学习和使用的门槛。详细功能清单如下:

功能详细描述
模型管理支持用户导入包括联通元景、OpenAI-API-compatible、Ollama、通义千问、火山引擎等模型供应商的LLM、Embedding、Rerank模型。 模型导入方式-详细版
知识库在文档解析能力方面:支持12种文件类型的上传,支持url解析;文档解析方式支持OCR和 MinerU模型解析(标题/表格/公式等场景)的私有化部署及接入,文档分段设置支持通用分段和父子分段。在调优能力方面:支持知识图谱、元数据管理及元数据过滤查询,支持分段内容增删改,支持对分段设置关键词标签提升召回效果,支持分段启停操作,支持命中测试等功能。在检索能力方面:支持向量检索、全文检索、混合检索多种检索模式;在问答能力方面:支持自动引用出处,支持图文并茂的生成答案。
资源库同时支持导入自己的MCP服务或自定义工具或提示词,并在工作流和智能体中使用;支持用户创建MCP Server
安全护栏用户可以创建敏感词表,控制模型反馈结果的安全性
文本问答基于私人知识库的专属知识顾问,支持知识库管理、知识问答、知识总结、个性参数配置、安全护栏、检索配置等功能,提高知识管理与学习的效率。支持公开或私密发布文本问答应用,支持发布为API
工作流可以扩展智能体能力边界,由节点组成,提供可视化工作流编辑能力,用户可以编排多个不同的工作流节点,实现复杂且稳定的业务流程。支持公开或私密发布工作流应用,支持发布为API,支持导入导出
智能体基于用户使用场景和业务需求创建智能体,支持选模型、设置提示词、联网检索、知识库选择、MCP、工作流、自定义工具等。支持公开或私密发布智能体应用,支持发布为API和Web Url
应用广场支持用户体验已发布的应用,包括文本问答、工作流和智能体
MCP广场内置100+优选行业MCP server,即选即用
模板广场内置50+优选行业提示词,即选即用
设置平台支持多租户,允许用户进行组织、角色、用户管理、平台基础配置,单点登录配置
知识图谱UniAI-GraphRAGUniAI-GraphRAG结合领域知识本体建模、知识图谱与社区报告构建、图检索增强生成等技术可有效提升知识问答的完整性、逻辑性与可信度。可显著提升跨多文档总结与多跳关系推理等复杂问答场景的问答效果

🚀 万悟高精度RAG

万悟RAG已在业界权威公开评测集MutiHop-RAG数据集上完成检索召回性能指标评测

image

检索性能综合评价指标:F1值(检索准确率和召回率的调和平均值)

1)万悟RAG比Dify高:14%

2)万悟GraphRAG比Dify高:17.2%

3)万悟GraphRAG比开源-LightRAG高:3.5%


📰 TODO LIST

  • Skills
  • 支持数据库导入知识库
  • 通用智能体
  • A2A协议
  • 智能体和模型测评
  • Trace追踪

💬 Q & A

  • 【Q】Linux系统Elastic(elastic-wanwu)启动报错:Memory limited without swap.

    【A】关闭服务,执行 sudo sysctl -w vm.max_map_count=262144 后,重启服务

  • 【Q】系统服务正常启动后,mysql-wanwu-setup和elastic-wanwu-setup容器退出:状态码为Exited (0)

    【A】正常,这两个容器用于完成一些初始化任务,执行完成后会自动退出

  • 【Q】模型导入相关

    【A】以导入联通元景LLM为例(导入OpenAI-API-compatible或导入Embedding、Rerank类型类似):

    1. 联通元景MaaS云LLM的Open API接口例如:https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions 2. 用户在联通元景MaaS云上申请到的API Key形如:sk-abc********************xyz 3. 确认API与Key可正确请求LLM,以请求yuanjing-70b-chat为例: curl --location 'https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions' \ --header 'Content-Type: application/json' \ --header 'Accept: application/json' \ --header 'Authorization: Bearer sk-abc********************xyz' \ --data '{ "model": "yuanjing-70b-chat", "messages": [{ "role": "user", "content": "你好" }] }' 4. 导入模型: 4.1【模型名称】必须为上述curl中可以正确请求的model;例如 yuanjing-70b-chat 4.2【API Key】必须为上述curl中可以正确请求的key;例如 sk-abc********************xyz(注意不填Bearer前缀) 4.3【推理URL】必须为上述curl中可以正确请求的url;例如 https://maas.ai-yuanjing.com/openapi/compatible-mode/v1(注意不带 /chat/completions 后缀) 5. 导入Embedding模型同上述导入LLM,注意推理URL不带 /embeddings 后缀 6. 导入Rerank模型同上述导入LLM,注意推理URL不带 /rerank 后缀

🔗 致谢


⚖️ 许可证

元景万悟智能体平台根据Apache License 2.0发布。


📩 联系我们

QQ 群1(已满):490071123QQ 群2(已满):1026898615QQ 群3:1019579243
imageimageimage