本仓库基于 fuliai / comfyui_base
添加了FusionX的FP8量化模型、官方工作流、T8工作流及适配插件
如增加插件了模型,提ISSUE,我将尽快更新,谢谢。
感谢fuliai / comfyui_base的开发者aiden
感谢youkun、爱简单、影子、羽凡、当S遇到M、Feng等兄弟大佬帮忙,没有大家帮忙我无法完成。
感谢大家的支持!
系统环境
1、Ubuntu 20.04 LTS
2、Python 3.12.0
3、Nodejs 16.13.2
4、Docker 20.10.12
5、Python 3.12.10
6、NVIDIA-SMI 535.216.01 Driver Version: 535.216.01 CUDA Version: 12.2
7、CUDA Toolkit 12.4
8、pytorch version: 2.7.1+cu126
9、xformers version: 0.0.30
10、ComfyUI version: 0.3.41
11、Sageattention 2.1.1
12、Triton 3.2.0
增加了FusionX 完整模型: /workspace/ComfyUI/models/diffusion_models/Wan/FusionX/
增加了Wan 官方模型: /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/
增加了Wan Vace Module模型: /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/VACE控制模块
增加了FusionX Lora模型: /workspace/ComfyUI/models/loras/Wan/FusionX
为WAN_Native工作流
增加了ComfyUI的clip_vison: /workspace/ComfyUI/models/clip_vision/Wan_官方原生
增加了ComfyUI的text_encoders: /workspace/ComfyUI/models/text_encoders/Wan_官方原生
为WAN_Wrapper工作流
增加了Kijai的clip_vison: /workspace/ComfyUI/models/clip_vision/Wan_Kijai封装
增加了Kijai的text_encoders: /workspace/ComfyUI/models/text_encoders/Wan_Kijai封装
增加了FusionX 完整模型官方工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/VRGameDevGirl官方
增加了FusionX 完整模型T8工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/T8star
增加了FusionX Lora模型官方工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/Lora模型/VRGameDevGirl官方
备注:
1、工作流以根据官方PNG格式工作流转化成json格式,内容保持一致。
2、FusionX Lora需要搭配Wan官方模型使用,工作流使用FusionX Lora模型官方工作流。
3、✅为测试通过
4、❌为测试失败
5、❓为尚未测试
bash /workspace/assets/start.sh
aiden大佬视频教程:https://www.bilibili.com/video/BV18zMWzpEgs/
安装了插件、保存了工作流、下载了模型,请务必:
cd /workspace
find /workspace/ComfyUI/custom_nodes -mindepth 2 -type d -name ".git" -exec rm -rf {} +
git add .
git commit -m "同步更新"
git push
一般用Manager来安装节点就可以了 如果需要手动安装插件,请在终端中运行:
py312
cd /workspace/ComfyUI/custom_nodes/
git clone 你的插件地址
cd 你的插件目录
uv pip install -r requirements.txt
ls -al
rm -rf .git
删除插件
git rm --cached ComfyUI/custom_nodes/ComfyUI_Comfyroll_CustomNodes
注意1:所有需要使用pip安装的,都需要先 py312进入python3.12专用环境中,再来安装。 注意2: 凡是git clone下来的文件夹,都需要删除里面的.git文件夹,否则同步不上去。在相应的文件夹中使用ls -a查看是否存在.git文件夹。
如何更新ComfyUI,请在终端中运行:
bash /workspace/assets/update_comfyui.sh
如何更新ComfyUI Manager,请在终端中运行:
cd /workspace/ComfyUI/custom_nodes/ComfyUI-Manager
git pull
可以使用Wget命令拉取 https://cnb.cool/ai-models 仓库模型文件
wget 目标文件完整地址,例如:
wget https://cnb.cool/ai-models/vrgamedevgirl84/Wan14BT2VFusioniX/-/raw/main/FusionX_LoRa/Phantom_Wan_14B_FusionX_LoRA.safetensors
完成后保存仓库
方法1:先在页面上双击搜索six,添加SixGodPrompt节点。
方法2:任意输入框,双击输入框即可打开页面,在“快速查找提示词”中输入,然后按回车,ESC退出页面。
备注:
支持自定义词库【把你自己整理词库文件放在yours文件夹下,不受更新会被覆盖影响】
支持中文输入、权重调整、位置调整。Alt+Q键呼出隐藏面板
支持动态随机提示词 本插件专属语法示例:#[red,blue,yellow]
重要:在设置里需要配置翻译模型
1、配置翻译API,目前支持百度接口
百度接口 https://api.fanyi.baidu.com/
标准版:免费调用量 5万字符/月 单次最长请求1000字符 QPS=1
高级版:免费调用量 100万字符/月 单次最长请求6000字符 QPS=10
接口自行申请
2、配置大模型配置(可用于翻译和随机灵感)
1)安装 llama_cpp_python
参考:https://github.com/abetlen/llama-cpp-python
2)大模型下载(需要.gguf格式)
* 建议千问大模型,推荐qwen1_5-4b-chat-q2_k.gguf
* 千问大模型系列地址:https://huggingface.co/Qwen