logo
0
0
WeChat Login
ComfyUI_base

g## 项目介绍

仓库介绍

本仓库基于 fuliai / comfyui_base
添加了FusionX的FP8量化模型、官方工作流、T8工作流及适配插件
如增加插件了模型,提ISSUE,我将尽快更新,谢谢。

致谢

感谢fuliai / comfyui_base的开发者aiden
感谢youkun、爱简单、影子、羽凡、当S遇到M、Feng等兄弟大佬帮忙,没有大家帮忙我无法完成。
感谢大家的支持!

环境

系统环境
1、Ubuntu 20.04 LTS
2、Python 3.12.0
3、Nodejs 16.13.2
4、Docker 20.10.12
5、Python 3.12.10
6、NVIDIA-SMI 535.216.01  Driver Version: 535.216.01   CUDA Version: 12.2
7、CUDA Toolkit 12.4
8、pytorch version: 2.7.1+cu126
9、xformers version: 0.0.30
10、ComfyUI version: 0.3.41
11、Sageattention 2.1.1
12、Triton 3.2.0

模型

增加了FusionX 完整模型:        /workspace/ComfyUI/models/diffusion_models/Wan/FusionX/
增加了Wan 官方模型:            /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/
增加了Wan Vace Module模型:     /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/VACE控制模块
增加了FusionX Lora模型:        /workspace/ComfyUI/models/loras/Wan/FusionX

为WAN_Native工作流
增加了ComfyUI的clip_vison:      /workspace/ComfyUI/models/clip_vision/Wan_官方原生
增加了ComfyUI的text_encoders:   /workspace/ComfyUI/models/text_encoders/Wan_官方原生

为WAN_Wrapper工作流
增加了Kijai的clip_vison:        /workspace/ComfyUI/models/clip_vision/Wan_Kijai封装
增加了Kijai的text_encoders:     /workspace/ComfyUI/models/text_encoders/Wan_Kijai封装

工作流

增加了FusionX 完整模型官方工作流:  /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/VRGameDevGirl官方
增加了FusionX 完整模型T8工作流:    /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/T8star
增加了FusionX Lora模型官方工作流:  /workspace/ComfyUI/user/default/workflows/Wan/FusionX/Lora模型/VRGameDevGirl官方

备注:
    1、工作流以根据官方PNG格式工作流转化成json格式,内容保持一致。
    2、FusionX Lora需要搭配Wan官方模型使用,工作流使用FusionX Lora模型官方工作流。
    3、✅为测试通过
    4、❌为测试失败
    5、❓为尚未测试

使用方法

一键启动命令(备用):

bash /workspace/assets/start.sh

教程

aiden大佬视频教程:https://www.bilibili.com/video/BV18zMWzpEgs/

更新

更新ComfyUI

如何更新ComfyUI,请在终端中运行:

bash /workspace/assets/update_comfyui.sh

更新ComfyUI Manager

如何更新ComfyUI Manager,请在终端中运行:

cd /workspace/ComfyUI/custom_nodes/ComfyUI-Manager
git pull

手动更新插件

一般用Manager来安装节点就可以了 如果需要手动安装插件,请在终端中运行:

py312
cd /workspace/ComfyUI/custom_nodes/
git clone 你的插件地址
cd 你的插件目录
uv pip install -r requirements.txt
ls -al
rm -rf .git

删除插件
git rm --cached ComfyUI/custom_nodes/ComfyUI_Comfyroll_CustomNodes

注意1:所有需要使用pip安装的,都需要先 py312进入python3.12专用环境中,再来安装。 注意2: 凡是git clone下来的文件夹,都需要删除里面的.git文件夹,否则同步不上去。在相应的文件夹中使用ls -a查看是否存在.git文件夹。

手动拉取CNB仓库模型文件

可以使用Wget命令拉取 https://cnb.cool/ai-models 仓库模型文件

wget 目标文件完整地址,例如:
wget https://cnb.cool/ai-models/vrgamedevgirl84/Wan14BT2VFusioniX/-/raw/main/FusionX_LoRa/Phantom_Wan_14B_FusionX_LoRA.safetensors
完成后保存仓库

更新同步仓库

安装了插件、保存了工作流、下载了模型,请务必:

cd /workspace
find /workspace/ComfyUI/custom_nodes -mindepth 2 -type d -name ".git" -exec rm -rf {} +
git add .
git commit -m "同步更新"
git push

插件使用方法

SIXGOD中文提示词使用方法

方法1:先在页面上双击搜索six,添加SixGodPrompt节点。
方法2:任意输入框,双击输入框即可打开页面,在“快速查找提示词”中输入,然后按回车,ESC退出页面。

备注:
    支持自定义词库【把你自己整理词库文件放在yours文件夹下,不受更新会被覆盖影响】
    支持中文输入、权重调整、位置调整。Alt+Q键呼出隐藏面板
    支持动态随机提示词    本插件专属语法示例:#[red,blue,yellow]

重要:在设置里需要配置翻译模型
    1、配置翻译API,目前支持百度接口
    百度接口 https://api.fanyi.baidu.com/
    标准版:免费调用量  5万字符/月      单次最长请求1000字符    QPS=1
    高级版:免费调用量  100万字符/月    单次最长请求6000字符    QPS=10
    接口自行申请

    2、配置大模型配置(可用于翻译和随机灵感)
        1)安装 llama_cpp_python
        参考:https://github.com/abetlen/llama-cpp-python

        2)大模型下载(需要.gguf格式)
        * 建议千问大模型,推荐qwen1_5-4b-chat-q2_k.gguf
        * 千问大模型系列地址:https://huggingface.co/Qwen
        ComfyUI-flows 旨在一键启动你的云 ComfyUI

分支即环境,通过选择不同的分支即可选择不同的 ComfyUI 环境;

各个案例分支及其环境仓库链接:

main:包含 ComfyUI 和一些常用的节点 krita:krita&comfyui 你值得拥有 skyreels:无限时长视频生成! hidream:效果堪比 Flux 的开源模型~ wan2:通义万相视频生成! framepack:低显存视频生成可玩~ flux1:曾经的 AI 生图王者! sd3.5:你知道的~ 所有的环境中都内置了许多常用的自定义节点,方便大家的使用!

使用 fork 本仓库 选择一个分支,点击ComfyUI启动按钮,稍等片刻,即可开始! 下载模型

  1. 【推荐】使用 coscmd 拉取腾讯云对象储存中模型 推荐理由:coscmd 在cnb远程开发环境中走的是内网,下载速度更快,且不收下行流量费用,使用前提是需要把你的模型上传到腾讯云对象储存中。

配置 coscmd: coscmd config -a YUOR_SECRET_ID -s YUOR_SECRET_KEY -b BucketName-APPID -r REGION 详细使用请参照官方文档

下载模型 coscmd download xxxx/checkpoints/xxx.safetensors /ComfyUI/models/checkpoints 2. 【推荐】在 CNB 的 ai-models 上下载模型 使用 curl 下载模型,下载格式

curl -o <文件名> -L <下载链接> 下载链接的获取:进入仓库后点击需要下载的 lfs 文件,在中间的【点击下载】按钮处,右键复制链接

下载示例: 从仓库 FLUX.1-dev 下载 ae.sft 到当前目录:

curl -o ae.sft -L https://cnb.cool/ai-models/camenduru/FLUX.1-dev/-/lfs/afc8e28272cd15db3919bacdb6918ce9c1ed22e96cb12c4d5ed0fba823529e38?name=ae.sft 3. 通用下载方法 若需要从魔搭社区等可直接获取文件下载 url 的平台下载模型,可以使用wget、axel

以下是示例,从魔搭社区下载Counterfeit模型至cnb中

-c 参数表示断点续传,防止大文件中断时,需要重新下载。

下载checkpoint模型

wget -c https://www.modelscope.cn/models/AI-ModelScope/Counterfeit-V2.5/resolve/master/Counterfeit-V2.5_pruned.safetensors -O /ComfyUI/models/checkpoints/Counterfeit-V2.5_pruned.safetensors

多线程下载

axel -n 10 https://www.modelscope.cn/models/AI-ModelScope/Counterfeit-V2.5/resolve/master/Counterfeit-V2.5_pruned.safetensors 4. 在 modelscope 上下载模型 在指定仓库下载指定文件到指定目录,例如在仓库 livehouse/flux1-dev-fp8 下载模型 flux1-dev-fp8.safetensors 到指定目录 /ComfyUI/models/checkpoints 命令如下:

modelscope download --model 'livehouse/flux1-dev-fp8' flux1-dev-fp8.safetensors --local_dir '/ComfyUI/models/checkpoints' 详细使用说明请看模型下载

  1. 在 huggingface 上下载模型 token 为 hf_**** 在指定仓库下载指定模型,例如在仓库 openfree/flux-lora-korea-palace 下载模型 flux-lora-korea-palace.safetensors 到指定目录 /ComfyUI/models/loras 命令如下:

huggingface-cli download openfree/flux-lora-korea-palace --include "flux-lora-korea-palace.safetensors" --local-dir /ComfyUI/models/loras --token hf_**** 6. 在 civitai 上下载模型 使用 aria2 下载模型,下载格式

aria2c -x16 -s16 -j16 -c -o <文件名> -d <本地路径> <下载链接> 使用 16 线程下载模型重命名为 CyberRealisticPony.safetensors 到指定目录 /ComfyUI/models/checkpoints

进入模型下载页面,点击下载,下载暂停,右键复制下载链接,命令如下:

aria2c -x16 -s16 -j16 -c -o CyberRealisticPony.safetensors -d /ComfyUI/models/checkpoints https://civitai-delivery-worker-prod.5ac0637cfd0766c97916cefa3764fbdf.r2.cloudflarestorage.com/model/6357/cyberrealisticponyV85.TgCf.safetensors?xxxx

About

本仓库基于 fuliai / comfyui_base,添加了FusionX模型、Lora、工作流.