logo
0
0
WeChat Login
ComfyUI_base
Forkfromfuliai/Comfyui_FusionX, behindComfyUI_base9 commits

项目介绍

仓库介绍

本仓库基于 fuliai / comfyui_base
添加了FusionX的FP8量化模型、官方工作流、T8工作流及适配插件
如增加插件了模型,提ISSUE,我将尽快更新,谢谢。

致谢

感谢fuliai / comfyui_base的开发者aiden
感谢youkun、爱简单、影子、羽凡、当S遇到M、Feng等兄弟大佬帮忙,没有大家帮忙我无法完成。
感谢大家的支持!

环境

系统环境
1、Ubuntu 20.04 LTS
2、Python 3.12.0
3、Nodejs 16.13.2
4、Docker 20.10.12
5、Python 3.12.10
6、NVIDIA-SMI 535.216.01  Driver Version: 535.216.01   CUDA Version: 12.2
7、CUDA Toolkit 12.4
8、pytorch version: 2.7.1+cu126
9、xformers version: 0.0.30
10、ComfyUI version: 0.3.41
11、Sageattention 2.1.1
12、Triton 3.2.0

模型

增加了FusionX 完整模型:        /workspace/ComfyUI/models/diffusion_models/Wan/FusionX/
增加了Wan 官方模型:            /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/
增加了Wan Vace Module模型:     /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/VACE控制模块
增加了FusionX Lora模型:        /workspace/ComfyUI/models/loras/Wan/FusionX

为WAN_Native工作流
增加了ComfyUI的clip_vison:      /workspace/ComfyUI/models/clip_vision/Wan_官方原生
增加了ComfyUI的text_encoders:   /workspace/ComfyUI/models/text_encoders/Wan_官方原生

为WAN_Wrapper工作流
增加了Kijai的clip_vison:        /workspace/ComfyUI/models/clip_vision/Wan_Kijai封装
增加了Kijai的text_encoders:     /workspace/ComfyUI/models/text_encoders/Wan_Kijai封装

工作流

增加了FusionX 完整模型官方工作流:  /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/VRGameDevGirl官方
增加了FusionX 完整模型T8工作流:    /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/T8star
增加了FusionX Lora模型官方工作流:  /workspace/ComfyUI/user/default/workflows/Wan/FusionX/Lora模型/VRGameDevGirl官方

备注:
    1、工作流以根据官方PNG格式工作流转化成json格式,内容保持一致。
    2、FusionX Lora需要搭配Wan官方模型使用,工作流使用FusionX Lora模型官方工作流。
    3、✅为测试通过
    4、❌为测试失败
    5、❓为尚未测试

使用方法

一键启动命令(备用):

bash /workspace/assets/start.sh

项目教程

aiden大佬视频教程:https://www.bilibili.com/video/BV18zMWzpEgs/

更新

更新同步仓库

安装了插件、保存了工作流、下载了模型,请务必:

cd /workspace
find /workspace/ComfyUI/custom_nodes -mindepth 2 -type d -name ".git" -exec rm -rf {} +
git add .
git commit -m "同步更新"
git push

手动更新插件

一般用Manager来安装节点就可以了 如果需要手动安装插件,请在终端中运行:

py312
cd /workspace/ComfyUI/custom_nodes/
git clone 你的插件地址
cd 你的插件目录
uv pip install -r requirements.txt
ls -al
rm -rf .git

删除插件
git rm --cached ComfyUI/custom_nodes/ComfyUI_Comfyroll_CustomNodes

注意1:所有需要使用pip安装的,都需要先 py312进入python3.12专用环境中,再来安装。 注意2: 凡是git clone下来的文件夹,都需要删除里面的.git文件夹,否则同步不上去。在相应的文件夹中使用ls -a查看是否存在.git文件夹。

更新ComfyUI

如何更新ComfyUI,请在终端中运行:

bash /workspace/assets/update_comfyui.sh

更新ComfyUI Manager

如何更新ComfyUI Manager,请在终端中运行:

cd /workspace/ComfyUI/custom_nodes/ComfyUI-Manager
git pull

手动拉取CNB仓库模型文件

可以使用Wget命令拉取 https://cnb.cool/ai-models 仓库模型文件

wget 目标文件完整地址,例如:
wget https://cnb.cool/ai-models/vrgamedevgirl84/Wan14BT2VFusioniX/-/raw/main/FusionX_LoRa/Phantom_Wan_14B_FusionX_LoRA.safetensors
完成后保存仓库

插件使用方法

SIXGOD中文提示词使用方法

方法1:先在页面上双击搜索six,添加SixGodPrompt节点。
方法2:任意输入框,双击输入框即可打开页面,在“快速查找提示词”中输入,然后按回车,ESC退出页面。

备注:
    支持自定义词库【把你自己整理词库文件放在yours文件夹下,不受更新会被覆盖影响】
    支持中文输入、权重调整、位置调整。Alt+Q键呼出隐藏面板
    支持动态随机提示词    本插件专属语法示例:#[red,blue,yellow]

重要:在设置里需要配置翻译模型
    1、配置翻译API,目前支持百度接口
    百度接口 https://api.fanyi.baidu.com/
    标准版:免费调用量  5万字符/月      单次最长请求1000字符    QPS=1
    高级版:免费调用量  100万字符/月    单次最长请求6000字符    QPS=10
    接口自行申请

    2、配置大模型配置(可用于翻译和随机灵感)
        1)安装 llama_cpp_python
        参考:https://github.com/abetlen/llama-cpp-python

        2)大模型下载(需要.gguf格式)
        * 建议千问大模型,推荐qwen1_5-4b-chat-q2_k.gguf
        * 千问大模型系列地址:https://huggingface.co/Qwen

About

Wan2.1 FusionX(模型、Lora、工作流) 包含30+工作流,精心调试过的,可用好用! 【微信交流群】https://qr61.cn/oohivs/qRp62U6

Language
Python77.8%
XML4.3%
JavaScript3.8%
C1.1%
Others13%