logo
0
0
Login
ComfyUI_base
This branch is behind hguannan-2025/Comfyui_MultiTalk:ComfyUI_base by 2 commits
编辑文件 README.md

运镜模型已经下载同步

项目介绍

仓库介绍

本仓库基于 fuliai / comfyui_base 添加了FusionX的FP8量化模型、官方工作流、T8工作流及适配插件 如增加插件了模型,提ISSUE,我将尽快更新,谢谢。

致谢

感谢fuliai / comfyui_base的开发者aiden 感谢youkun、爱简单、影子、羽凡、当S遇到M、Feng等兄弟大佬帮忙,没有大家帮忙我无法完成。 感谢大家的支持!

环境

系统环境 1、Ubuntu 20.04 LTS 2、Python 3.12.0 3、Nodejs 16.13.2 4、Docker 20.10.12 5、Python 3.12.10 6、NVIDIA-SMI 535.216.01 Driver Version: 535.216.01 CUDA Version: 12.2 7、CUDA Toolkit 12.4 8、pytorch version: 2.7.1+cu126 9、xformers version: 0.0.30 10、ComfyUI version: 0.3.41 11、Sageattention 2.1.1 12、Triton 3.2.0

模型

增加了FusionX 完整模型: /workspace/ComfyUI/models/diffusion_models/Wan/FusionX/ 增加了Wan 官方模型: /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/ 增加了Wan Vace Module模型: /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/VACE控制模块 增加了FusionX Lora模型: /workspace/ComfyUI/models/loras/Wan/FusionX 为WAN_Native工作流 增加了ComfyUI的clip_vison: /workspace/ComfyUI/models/clip_vision/Wan_官方原生 增加了ComfyUI的text_encoders: /workspace/ComfyUI/models/text_encoders/Wan_官方原生 为WAN_Wrapper工作流 增加了Kijai的clip_vison: /workspace/ComfyUI/models/clip_vision/Wan_Kijai封装 增加了Kijai的text_encoders: /workspace/ComfyUI/models/text_encoders/Wan_Kijai封装

工作流

增加了FusionX 完整模型官方工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/VRGameDevGirl官方 增加了FusionX 完整模型T8工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/T8star 增加了FusionX Lora模型官方工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/Lora模型/VRGameDevGirl官方 备注: 1、工作流以根据官方PNG格式工作流转化成json格式,内容保持一致。 2、FusionX Lora需要搭配Wan官方模型使用,工作流使用FusionX Lora模型官方工作流。 3、✅为测试通过 4、❌为测试失败 5、❓为尚未测试

使用方法

一键启动命令(备用):

bash /workspace/assets/start.sh

项目教程

aiden大佬视频教程:https://www.bilibili.com/video/BV18zMWzpEgs/

更新

更新同步仓库

安装了插件、保存了工作流、下载了模型,请务必:

cd /workspace find /workspace/ComfyUI/custom_nodes -mindepth 2 -type d -name ".git" -exec rm -rf {} + git add . git commit -m "同步更新" git push

手动更新插件

一般用Manager来安装节点就可以了 如果需要手动安装插件,请在终端中运行:

py312 cd /workspace/ComfyUI/custom_nodes/ git clone 你的插件地址 cd 你的插件目录 uv pip install -r requirements.txt ls -al rm -rf .git 删除插件 git rm --cached ComfyUI/custom_nodes/ComfyUI_Comfyroll_CustomNodes

注意1:所有需要使用pip安装的,都需要先 py312进入python3.12专用环境中,再来安装。 注意2: 凡是git clone下来的文件夹,都需要删除里面的.git文件夹,否则同步不上去。在相应的文件夹中使用ls -a查看是否存在.git文件夹。

更新ComfyUI

如何更新ComfyUI,请在终端中运行:

bash /workspace/assets/update_comfyui.sh

更新ComfyUI Manager

如何更新ComfyUI Manager,请在终端中运行:

cd /workspace/ComfyUI/custom_nodes/ComfyUI-Manager git pull

手动拉取CNB仓库模型文件

可以使用Wget命令拉取 https://cnb.cool/ai-models 仓库模型文件

wget 目标文件完整地址,例如: wget https://cnb.cool/ai-models/vrgamedevgirl84/Wan14BT2VFusioniX/-/raw/main/FusionX_LoRa/Phantom_Wan_14B_FusionX_LoRA.safetensors 完成后保存仓库

插件使用方法

SIXGOD中文提示词使用方法

方法1:先在页面上双击搜索six,添加SixGodPrompt节点。 方法2:任意输入框,双击输入框即可打开页面,在“快速查找提示词”中输入,然后按回车,ESC退出页面。 备注: 支持自定义词库【把你自己整理词库文件放在yours文件夹下,不受更新会被覆盖影响】 支持中文输入、权重调整、位置调整。Alt+Q键呼出隐藏面板 支持动态随机提示词 本插件专属语法示例:#[red,blue,yellow] 重要:在设置里需要配置翻译模型 1、配置翻译API,目前支持百度接口 百度接口 https://api.fanyi.baidu.com/ 标准版:免费调用量 5万字符/月 单次最长请求1000字符 QPS=1 高级版:免费调用量 100万字符/月 单次最长请求6000字符 QPS=10 接口自行申请 2、配置大模型配置(可用于翻译和随机灵感) 1)安装 llama_cpp_python 参考:https://github.com/abetlen/llama-cpp-python 2)大模型下载(需要.gguf格式) * 建议千问大模型,推荐qwen1_5-4b-chat-q2_k.gguf * 千问大模型系列地址:https://huggingface.co/Qwen

About

本仓库基于wan2.1 FusionX模型的基础上添加了Multitalk数字人项目。