本模型库fork至 https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models.git
可fork后自行构建工作流启动库 【fork不计算占用本地仓库空间】
docker run -it --gpus all
-p 8188:8188
-v /path/to/models:/opt/ComfyUI/models
your-comfyui-image
以下是模型库的主要目录结构,展示了可用的模型类别:
models/
├── BEN # BEN模型 (Berkeley Efficient Networks) - Berkeley开发,用于高效图像处理
├── BiRefNet # BiRefNet图像增强模型 - 用于图像质量提升和细节增强
│ └── RMBG-2.0/model.safetensors # 背景移除模型
├── Joy_caption # Joy图像描述模型 - 腾讯开发,用于中文图像描述生成
│ └── text_model/adapter_model.safetensors # 文本适配器模型
├── LLM # 大语言模型 - 包含各种开源语言模型,用于自然语言处理
│ └── Florence-2-large-PromptGen-v2.0/model.safetensors # Florence大型提示生成模型
├── Yolov8 # Yolov8目标检测模型 - Ultralytics开发,用于实时目标检测
├── brushnet # Brushnet图像修复模型 - 用于智能图像修复和编辑
│ ├── brushnet_random_mask_fp16.safetensors # 随机遮罩修复模型
│ └── brushnet_segmentation_mask_fp16.safetensors # 分割遮罩修复模型
├── checkpoint # Stable Diffusion检查点 - Stability AI开发的图像生成模型
│ ├── flux1-dev-fp8.safetensors # Flux开发版模型
│ ├── sd_xl_base_1.0_0.9vae.safetensors # SDXL基础模型
│ └── v1-5-pruned-emaonly.safetensors # SD1.5精简版模型
├── clip # CLIP文本编码器模型 - OpenAI开发,用于文本-图像理解
│ ├── ViT-L-14-TEXT-detail-improved-hiT-GmP-HF.safetensors # 改进的ViT文本编码器
│ ├── clip_g.safetensors # CLIP-G模型
│ ├── clip_l.safetensors # CLIP-L模型
│ ├── clip_vision_h.safetensors # CLIP-H视觉模型
│ └── t5xxl_fp16.safetensors # T5-XXL压缩模型
├── clip_vision # CLIP视觉编码器模型 - OpenAI开发,用于图像特征提取
│ ├── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors # LAION训练的ViT-H模型
│ ├── IP-adapter/image_encoder_sd1.5.safetensors # IP-Adapter图像编码器
│ └── clip_vision_l.safetensors # CLIP-L视觉模型
├── configs # 配置文件
│ └── (包含v1/v2推理配置和anything_v3等模型配置)
├── controlnet # ControlNet模型 - Stanford开发,用于可控图像生成
│ ├── flux # Flux ControlNet模型 - 用于高质量图像生成控制
│ │ ├── FLUX.1-dev-ControlNet-Union-Pro-2.0.safetensors # Flux联合控制模型2.0
│ │ └── FLUX.1-dev-ControlNet-Union-Pro.safetensors # Flux联合控制模型
│ ├── instantID # InstantID人脸编辑模型 - 用于精确人脸编辑
│ │ └── diffusion_pytorch_model.safetensors # InstantID扩散模型
│ ├── sd15 # SD1.5 ControlNet - 支持多种控制条件(边缘/深度/布局)
│ ├── sd35 # SD3.5 ControlNet - 新一代控制模型
│ │ ├── sd3.5_large_controlnet_blur.safetensors # 模糊控制模型
│ │ ├── sd3.5_large_controlnet_canny.safetensors # 边缘控制模型
│ │ └── sd3.5_large_controlnet_depth.safetensors # 深度控制模型
│ └── xl # SDXL ControlNet - 适配SDXL的控制模型
│ ├── controlnet-union-promax-sdxl-1.0.safetensors # SDXL联合控制增强版
│ └── controlnet-union-sdxl-1.0.safetensors # SDXL联合控制标准版
├── depth # 深度估计模型 - 用于3D场景理解
│ └── ml-depth-pro/depth_pro.fp16.safetensors # 专业级深度估计模型
├── depthanything # Depth Anything深度估计模型 - 通用深度估计
│ ├── depth_anything_v2_vitb_fp16.safetensors # ViT-B变体
│ ├── depth_anything_v2_vitl_fp16.safetensors # ViT-L变体
│ └── depth_anything_v2_vits_fp16.safetensors # ViT-S变体
├── diffbir # DiffBIR图像修复模型 - 基于扩散模型的图像修复
├── diffusers # Diffusers格式模型 - HuggingFace开发的扩散模型框架
│ ├── MimicMotion/svd_xt_1_1.safetensors # 动作模仿模型
│ ├── controlnext # ControlNext控制模型
│ │ ├── controlnext-svd_v2-controlnet-fp16.safetensors # 控制网络
│ │ └── controlnext-svd_v2-unet-fp16.safetensors # UNet网络
│ └── hunyuan3d # 混元3D模型 - 腾讯开发
│ ├── text_encoder/model.safetensors # 文本编码器
│ ├── unet/diffusion_pytorch_model.safetensors # UNet模型
│ └── vae/diffusion_pytorch_model.safetensors # VAE模型
├── diffusion_models # 扩散模型
│ ├── Wan2.1-Fun-Control-14B_fp8_e4m3fn.safetensors # Wan2.1控制模型
│ ├── Wan2_1-FLF2V-14B-720P_fp8_e4m3fn.safetensors # 720P视频生成
│ ├── Wan2_1-I2V-14B-480P_fp8_e4m3fn.safetensors # 480P图生视频
│ └── Wan2_1-T2V-14B_fp8_e4m3fn.safetensors # 文本生成视频
├── embeddings # 文本嵌入模型 - 用于文本特征表示
├── facedetection # 人脸检测模型 - 用于人脸定位和识别
├── facerestore_models # 人脸修复模型
│ └── (包含GFPGAN/CodeFormer等,用于人脸修复和增强)
├── facexlib # 人脸处理库 - 提供全面的人脸分析功能
├── florence2 # Florence2视觉语言模型 - 微软开发的多模态模型
│ ├── base-PromptGen-v2.0/model.safetensors # 基础版提示生成
│ └── large-PromptGen-v2.0/model.safetensors # 大型提示生成
├── fooocus_expansion # Fooocus扩展模型 - 用于提升Stable Diffusion生成质量
├── gligen # GLIGEN布局控制模型 - 用于精确的图像布局控制
│ ├── gligen_sd14_textbox_pruned.safetensors # 文本框控制模型
│ └── gligen_sd14_textbox_pruned_fp16.safetensors # FP16优化版本
├── grounding-dino # Grounding DINO目标检测模型 - IDEA研究院开发
├── hypernetworks # 超网络模型 - 用于模型动态适应
├── inpaint # 图像修复模型
│ ├── brushnet # Brushnet修复模型 - 智能图像修复
│ │ ├── random_mask_brushnet_ckpt.safetensors # 随机遮罩修复
│ │ └── segmentation_mask_brushnet_ckpt.safetensors # 分割遮罩修复
│ ├── fooocus_inpaint # Fooocus修复模型 - 高质量图像修复
│ │ ├── MAT_Places512_G_fp16.safetensors # 场景修复模型
│ │ └── fooocus_lama.safetensors # LaMa修复模型
│ └── powerpaint # PowerPaint修复模型 - Google开发
│ ├── diffusion_pytorch_model.safetensors # 扩散模型
│ └── powerpaint_v2_brushnet_fp16.safetensors # Brushnet集成版
├── insightface # InsightFace人脸分析模型 - 深度学习人脸分析工具集
├── instantid # InstantID人脸编辑模型 - 快速人脸编辑和生成
├── interpolation # 插值模型
│ └── gimm-vfi # GIMM-VFI视频帧插值 - 用于视频流畅化
│ ├── flowformer_sintel_fp32.safetensors # 光流估计模型
│ ├── gimmvfi_f_arb_lpips_fp32.safetensors # 前向插值模型
│ └── gimmvfi_r_arb_lpips_fp32.safetensors # 反向插值模型
├── ipadapter # IP-Adapter模型 - 用于个性化图像生成
│ ├── flux/flux-ip-adapter.safetensors # Flux专用适配器
│ ├── ip-adapter-plus-face_sdxl_vit-h.safetensors # SDXL人脸增强版
│ ├── ip-adapter-plus_sdxl_vit-h.safetensors # SDXL增强版
│ └── ip-adapter_sdxl_vit-h.safetensors # SDXL基础版
├── lama # LaMa图像修复模型 - Samsung开发的大遮罩图像修复
├── layer_model # 层模型 - 用于分层图像处理
│ ├── layer_sd15_bg2fg.safetensors # SD1.5背景到前景
│ ├── layer_sd15_fg2bg.safetensors # SD1.5前景到背景
│ ├── layer_xl_bg2ble.safetensors # SDXL背景混合
│ └── layer_xl_transparent_attn.safetensors # SDXL透明注意力
├── layerstyle # 层样式模型 - 用于图像风格化
├── liveportrait # LivePortrait人像动画模型 - 用于人像动画生成
│ ├── appearance_feature_extractor.safetensors # 外观特征提取器
│ ├── motion_extractor.safetensors # 运动提取器
│ ├── spade_generator.safetensors # SPADE生成器
│ └── warping_module.safetensors # 变形模块
├── llama # Llama语言模型 - Meta开发的开源语言模型
│ └── (包含LLaVA多模态模型,支持视觉-语言任务)
├── loras # LoRA模型 - 微软开发的模型微调技术
│ ├── ACE++ # ACE++增强LoRA - 提升生成质量
│ │ ├── comfyui_local_lora16.safetensors # 本地增强
│ │ ├── comfyui_portrait_lora64.safetensors # 人像增强
│ │ └── comfyui_subject_lora16.safetensors # 主体增强
│ ├── LCM # Latent Consistency Model - 快速推理模型
│ │ ├── LCM-1.5-Lora.safetensors # SD1.5版本
│ │ └── LCM-XL-Lora.safetensors # SDXL版本
│ ├── flux_hyper # Flux超网络LoRA - 高级控制模型
│ │ ├── FLUX.1-Turbo-Alpha.safetensors # Turbo优化版
│ │ └── Hyper-FLUX.1-dev-8steps-lora.safetensors # 8步快速版
│ └── xl # SDXL专用LoRA - 适配SDXL的微调模型
│ └── add-detail-xl增加细节.safetensors # 细节增强LoRA
├── mediapipe # MediaPipe模型 - Google开发的多媒体处理框架
├── mmaudio # 多模态音频模型 - 用于音频处理和合成
│ ├── mmaudio_large_44k_v2_fp16.safetensors # 44kHz音频处理
│ ├── mmaudio_synchformer_fp16.safetensors # 音频同步模型
│ └── mmaudio_vae_44k_fp16.safetensors # 音频VAE模型
├── mmdets # 多模态检测模型 - OpenMMLab开发的检测工具集
├── mvadapter # MV-Adapter视频适配器 - 用于视频处理
│ ├── mvadapter_i2mv_sdxl.safetensors # 图像到视频适配器
│ └── mvadapter_t2mv_sdxl.safetensors # 文本到视频适配器
├── onnx # ONNX格式模型 - 微软开发的开放神经网络交换格式
├── photomaker # PhotoMaker个性化模型 - 用于个性化照片生成
│ └── pulid_flux_v0.9.0.safetensors # PULID-Flux集成版
├── pulid # PULID图像处理模型 - 用于图像增强和处理
│ ├── ip-adapter_pulid_sdxl_fp16.safetensors # SDXL适配器
│ └── pulid_flux_v0.9.1.safetensors # Flux集成版
├── rembg # 背景移除模型 - 用于自动抠图
│ └── (包含u2net等多个变体,支持不同场景)
├── sam2 # SAM2分割模型 - Meta升级版分割模型
│ ├── sam2.1_hiera_base_plus-fp16.safetensors # Base+版本
│ ├── sam2.1_hiera_large-fp16.safetensors # Large版本
│ ├── sam2_hiera_small.safetensors # Small版本
│ └── sam2_hiera_tiny.safetensors # Tiny版本
├── sams # SAM分割模型 - Meta开发的分割模型
│ └── (包含mobile_sam等轻量级变体)
├── style_models # 风格模型 - 用于艺术风格迁移
│ └── flux1-redux-dev.safetensors # Flux风格增强模型
├── text_encoders # 文本编码器 - 用于文本特征提取
│ ├── open-clip-xlm-roberta-large-vit-huge-14_visual_fp16.safetensors # XLM-RoBERTa编码器
│ └── umt5-xxl-enc-fp8_e4m3fn.safetensors # UMT5-XXL编码器
├── ultralytics # Ultralytics目标检测模型 - 商业级检测方案
│ ├── bbox # 边界框检测 - 物体定位
│ └── segm # 语义分割 - 场景理解
├── unet # UNet模型 - 用于图像分割和生成
│ ├── IC_Light_ldm # IC Light LDM变体
│ │ ├── iclight_sd15_fbc_unet_ldm.safetensors # FBC变体
│ │ └── iclight_sd15_fc_unet_ldm.safetensors # FC变体
│ ├── IC_light # IC Light标准变体
│ │ ├── iclight_sd15_fbc.safetensors # FBC变体
│ │ └── iclight_sd15_fc.safetensors # FC变体
│ ├── UltiUpscale.safetensors # 终极上采样模型
│ ├── flux1-dev-fp8.safetensors # Flux开发版
│ └── sd3.5_large.safetensors # SD3.5大型模型
├── upscale_models # 图像上采样模型
│ ├── OmniSR_X2_DIV2K.safetensors # 2倍放大模型
│ ├── OmniSR_X3_DIV2K.safetensors # 3倍放大模型
│ └── OmniSR_X4_DIV2K.safetensors # 4倍放大模型
├── vae # VAE模型 - 变分自编码器
│ ├── Wan2_1_VAE_bf16.safetensors # Wan2.1 BF16精度
│ ├── Wan2_1_VAE_fp32.safetensors # Wan2.1 FP32精度
│ ├── sd3.5vae.safetensors # SD3.5专用VAE
│ ├── sdxl_vae.safetensors # SDXL专用VAE
│ └── vae-ft-mse-840000-ema-pruned.safetensors # 优化训练VAE
├── vae_approx # VAE近似模型 - 用于加速VAE推理
├── vitmatte # VitMatte抠图模型 - 基于Vision Transformer的抠图
│ └── model.safetensors # 主要模型文件
├── yolo # YOLO目标检测模型 - Joseph Redmon开创
│ └── (包含v8/v9多个变体,用于实时检测)
├── yolo-world # YOLO-World通用检测器 - 开放词表目标检测
└── yolo_world # YOLO-World扩展模型 - 增强版通用检测器
常见的 AI 模型,会存储到AI Models 组织下,方便在 CNB 中内网快速拉取。模型文件来自开源社区,请遵守各模型使用协议及核对文件安全性。
https://cnb.cool/AIxcnb/models/ComfyUI_models.git
https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack1.git
https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack2.git
cnb:AI Models/zhanzhangtuijian