Ragflow-Plus 是一个基于 Ragflow 的二次开发项目,目的是解决实际应用中的一些问题,主要有以下特点:
视频演示及操作教程:
NOTE
视频中采用了vllm作为演示示例,vllm默认拉取使用的模型是float16精度,导致众多用户因显存不足无法正常使用,因此将vllm容器进行注释,除非对vllm比较了解,否则建议使用ollama进行配置。
ollama 配置方式:
以配置bge-m3模型为例:
下载模型:
ollama pull bge-m3:latest
前台添加时,模型名称设为bge-m3,模型地址设为http://host.docker.internal:11434
在项目根目录下执行
使用GPU运行:
docker compose -f docker/docker-compose_gpu.yml up -d
使用CPU运行:
docker compose -f docker/docker-compose.yml up -d
访问地址:服务器ip:80,进入到前台界面
访问地址:服务器ip:8888,进入到后台管理界面
图文教程:https://blog.csdn.net/qq1198768105/article/details/147475488
management/server,执行:python app.py
management\web,执行:pnpm dev
python -m api.ragflow_server
web,执行:pnpm dev
NOTE
源码部署需要注意:如果用到MinerU后台解析,需要参考MinerU的文档下载模型文件,并安装LibreOffice,配置环境变量,以适配支持除pdf之外的类型文件。
参见常见问题
参见开发计划
git clone git@github.com:<你的用户名>/ragflow-plus.gitgit checkout -b my-branchgit commit -m '提交信息需包含充分说明'git push origin my-branch如果有使用问题或建议,可加入交流群进行讨论。
由于群聊超过200人,无法通过扫码加入,如需加群,加我微信zstar1003,备注"加群"即可。
本项目基于以下开源项目开发:
感谢此项目贡献者们:
目前该项目仍在持续更新中,更新日志会在我的微信公众号[我有一计]上发布,欢迎关注。
本仓库基于AGPLv3许可证
由于包含第三方AGPLv3代码,本项目必须遵循AGPLv3的全部条款。这意味着:
商用说明
免责声明
本项目不提供任何担保,使用者需自行承担合规风险。若需法律建议,请咨询专业律师。