logo
8
2
WeChat Login
Forkfromai-models/zhanzhangtuijian/ComfyUI_models, aheadmain6 commits

🤝 CNB官方 ComfyUI 公益模型库 AI-MODELS

本模型库fork至 https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models.git

可fork后自行构建工作流启动库 【fork不计算占用本地仓库空间】

假设本仓库模型位于 /path/to/models 目录

docker run -it --gpus all
-p 8188:8188
-v /path/to/models:/opt/ComfyUI/models
your-comfyui-image

📋 模型库目录结构

以下是模型库的主要目录结构,展示了可用的模型类别:

models/
  ├── BEN                     # BEN模型 (Berkeley Efficient Networks) - Berkeley开发,用于高效图像处理
  ├── BiRefNet                # BiRefNet图像增强模型 - 用于图像质量提升和细节增强
  │   └── RMBG-2.0/model.safetensors  # 背景移除模型
  ├── Joy_caption             # Joy图像描述模型 - 腾讯开发,用于中文图像描述生成
  │   └── text_model/adapter_model.safetensors  # 文本适配器模型
  ├── LLM                     # 大语言模型 - 包含各种开源语言模型,用于自然语言处理
  │   └── Florence-2-large-PromptGen-v2.0/model.safetensors  # Florence大型提示生成模型
  ├── Yolov8                  # Yolov8目标检测模型 - Ultralytics开发,用于实时目标检测
  ├── brushnet                # Brushnet图像修复模型 - 用于智能图像修复和编辑
  │   ├── brushnet_random_mask_fp16.safetensors  # 随机遮罩修复模型
  │   └── brushnet_segmentation_mask_fp16.safetensors  # 分割遮罩修复模型
  ├── checkpoint              # Stable Diffusion检查点 - Stability AI开发的图像生成模型
  │   ├── flux1-dev-fp8.safetensors  # Flux开发版模型
  │   ├── sd_xl_base_1.0_0.9vae.safetensors  # SDXL基础模型
  │   └── v1-5-pruned-emaonly.safetensors  # SD1.5精简版模型
  ├── clip                    # CLIP文本编码器模型 - OpenAI开发,用于文本-图像理解
  │   ├── ViT-L-14-TEXT-detail-improved-hiT-GmP-HF.safetensors  # 改进的ViT文本编码器
  │   ├── clip_g.safetensors  # CLIP-G模型
  │   ├── clip_l.safetensors  # CLIP-L模型
  │   ├── clip_vision_h.safetensors  # CLIP-H视觉模型
  │   └── t5xxl_fp16.safetensors  # T5-XXL压缩模型
  ├── clip_vision             # CLIP视觉编码器模型 - OpenAI开发,用于图像特征提取
  │   ├── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors  # LAION训练的ViT-H模型
  │   ├── IP-adapter/image_encoder_sd1.5.safetensors  # IP-Adapter图像编码器
  │   └── clip_vision_l.safetensors  # CLIP-L视觉模型
  ├── configs                 # 配置文件
  │   └── (包含v1/v2推理配置和anything_v3等模型配置)
  ├── controlnet              # ControlNet模型 - Stanford开发,用于可控图像生成
  │   ├── flux               # Flux ControlNet模型 - 用于高质量图像生成控制
  │   │   ├── FLUX.1-dev-ControlNet-Union-Pro-2.0.safetensors  # Flux联合控制模型2.0
  │   │   └── FLUX.1-dev-ControlNet-Union-Pro.safetensors  # Flux联合控制模型
  │   ├── instantID          # InstantID人脸编辑模型 - 用于精确人脸编辑
  │   │   └── diffusion_pytorch_model.safetensors  # InstantID扩散模型
  │   ├── sd15               # SD1.5 ControlNet - 支持多种控制条件(边缘/深度/布局)
  │   ├── sd35               # SD3.5 ControlNet - 新一代控制模型
  │   │   ├── sd3.5_large_controlnet_blur.safetensors  # 模糊控制模型
  │   │   ├── sd3.5_large_controlnet_canny.safetensors  # 边缘控制模型
  │   │   └── sd3.5_large_controlnet_depth.safetensors  # 深度控制模型
  │   └── xl                 # SDXL ControlNet - 适配SDXL的控制模型
  │       ├── controlnet-union-promax-sdxl-1.0.safetensors  # SDXL联合控制增强版
  │       └── controlnet-union-sdxl-1.0.safetensors  # SDXL联合控制标准版
  ├── depth                   # 深度估计模型 - 用于3D场景理解
  │   └── ml-depth-pro/depth_pro.fp16.safetensors  # 专业级深度估计模型
  ├── depthanything           # Depth Anything深度估计模型 - 通用深度估计
  │   ├── depth_anything_v2_vitb_fp16.safetensors  # ViT-B变体
  │   ├── depth_anything_v2_vitl_fp16.safetensors  # ViT-L变体
  │   └── depth_anything_v2_vits_fp16.safetensors  # ViT-S变体
  ├── diffbir                 # DiffBIR图像修复模型 - 基于扩散模型的图像修复
  ├── diffusers               # Diffusers格式模型 - HuggingFace开发的扩散模型框架
  │   ├── MimicMotion/svd_xt_1_1.safetensors  # 动作模仿模型
  │   ├── controlnext        # ControlNext控制模型
  │   │   ├── controlnext-svd_v2-controlnet-fp16.safetensors  # 控制网络
  │   │   └── controlnext-svd_v2-unet-fp16.safetensors  # UNet网络
  │   └── hunyuan3d          # 混元3D模型 - 腾讯开发
  │       ├── text_encoder/model.safetensors  # 文本编码器
  │       ├── unet/diffusion_pytorch_model.safetensors  # UNet模型
  │       └── vae/diffusion_pytorch_model.safetensors  # VAE模型
  ├── diffusion_models        # 扩散模型
  │   ├── Wan2.1-Fun-Control-14B_fp8_e4m3fn.safetensors  # Wan2.1控制模型
  │   ├── Wan2_1-FLF2V-14B-720P_fp8_e4m3fn.safetensors  # 720P视频生成
  │   ├── Wan2_1-I2V-14B-480P_fp8_e4m3fn.safetensors  # 480P图生视频
  │   └── Wan2_1-T2V-14B_fp8_e4m3fn.safetensors  # 文本生成视频
  ├── embeddings              # 文本嵌入模型 - 用于文本特征表示
  ├── facedetection           # 人脸检测模型 - 用于人脸定位和识别
  ├── facerestore_models      # 人脸修复模型
  │   └── (包含GFPGAN/CodeFormer等,用于人脸修复和增强)
  ├── facexlib                # 人脸处理库 - 提供全面的人脸分析功能
  ├── florence2               # Florence2视觉语言模型 - 微软开发的多模态模型
  │   ├── base-PromptGen-v2.0/model.safetensors  # 基础版提示生成
  │   └── large-PromptGen-v2.0/model.safetensors  # 大型提示生成
  ├── fooocus_expansion       # Fooocus扩展模型 - 用于提升Stable Diffusion生成质量
  ├── gligen                  # GLIGEN布局控制模型 - 用于精确的图像布局控制
  │   ├── gligen_sd14_textbox_pruned.safetensors  # 文本框控制模型
  │   └── gligen_sd14_textbox_pruned_fp16.safetensors  # FP16优化版本
  ├── grounding-dino          # Grounding DINO目标检测模型 - IDEA研究院开发
  ├── hypernetworks           # 超网络模型 - 用于模型动态适应
  ├── inpaint                 # 图像修复模型
  │   ├── brushnet           # Brushnet修复模型 - 智能图像修复
  │   │   ├── random_mask_brushnet_ckpt.safetensors  # 随机遮罩修复
  │   │   └── segmentation_mask_brushnet_ckpt.safetensors  # 分割遮罩修复
  │   ├── fooocus_inpaint    # Fooocus修复模型 - 高质量图像修复
  │   │   ├── MAT_Places512_G_fp16.safetensors  # 场景修复模型
  │   │   └── fooocus_lama.safetensors  # LaMa修复模型
  │   └── powerpaint         # PowerPaint修复模型 - Google开发
  │       ├── diffusion_pytorch_model.safetensors  # 扩散模型
  │       └── powerpaint_v2_brushnet_fp16.safetensors  # Brushnet集成版
  ├── insightface             # InsightFace人脸分析模型 - 深度学习人脸分析工具集
  ├── instantid               # InstantID人脸编辑模型 - 快速人脸编辑和生成
  ├── interpolation           # 插值模型
  │   └── gimm-vfi           # GIMM-VFI视频帧插值 - 用于视频流畅化
  │       ├── flowformer_sintel_fp32.safetensors  # 光流估计模型
  │       ├── gimmvfi_f_arb_lpips_fp32.safetensors  # 前向插值模型
  │       └── gimmvfi_r_arb_lpips_fp32.safetensors  # 反向插值模型
  ├── ipadapter               # IP-Adapter模型 - 用于个性化图像生成
  │   ├── flux/flux-ip-adapter.safetensors  # Flux专用适配器
  │   ├── ip-adapter-plus-face_sdxl_vit-h.safetensors  # SDXL人脸增强版
  │   ├── ip-adapter-plus_sdxl_vit-h.safetensors  # SDXL增强版
  │   └── ip-adapter_sdxl_vit-h.safetensors  # SDXL基础版
  ├── lama                    # LaMa图像修复模型 - Samsung开发的大遮罩图像修复
  ├── layer_model             # 层模型 - 用于分层图像处理
  │   ├── layer_sd15_bg2fg.safetensors  # SD1.5背景到前景
  │   ├── layer_sd15_fg2bg.safetensors  # SD1.5前景到背景
  │   ├── layer_xl_bg2ble.safetensors  # SDXL背景混合
  │   └── layer_xl_transparent_attn.safetensors  # SDXL透明注意力
  ├── layerstyle              # 层样式模型 - 用于图像风格化
  ├── liveportrait            # LivePortrait人像动画模型 - 用于人像动画生成
  │   ├── appearance_feature_extractor.safetensors  # 外观特征提取器
  │   ├── motion_extractor.safetensors  # 运动提取器
  │   ├── spade_generator.safetensors  # SPADE生成器
  │   └── warping_module.safetensors  # 变形模块
  ├── llama                   # Llama语言模型 - Meta开发的开源语言模型
  │   └── (包含LLaVA多模态模型,支持视觉-语言任务)
  ├── loras                   # LoRA模型 - 微软开发的模型微调技术
  │   ├── ACE++              # ACE++增强LoRA - 提升生成质量
  │   │   ├── comfyui_local_lora16.safetensors  # 本地增强
  │   │   ├── comfyui_portrait_lora64.safetensors  # 人像增强
  │   │   └── comfyui_subject_lora16.safetensors  # 主体增强
  │   ├── LCM                # Latent Consistency Model - 快速推理模型
  │   │   ├── LCM-1.5-Lora.safetensors  # SD1.5版本
  │   │   └── LCM-XL-Lora.safetensors  # SDXL版本
  │   ├── flux_hyper         # Flux超网络LoRA - 高级控制模型
  │   │   ├── FLUX.1-Turbo-Alpha.safetensors  # Turbo优化版
  │   │   └── Hyper-FLUX.1-dev-8steps-lora.safetensors  # 8步快速版
  │   └── xl                 # SDXL专用LoRA - 适配SDXL的微调模型
  │       └── add-detail-xl增加细节.safetensors  # 细节增强LoRA
  ├── mediapipe               # MediaPipe模型 - Google开发的多媒体处理框架
  ├── mmaudio                 # 多模态音频模型 - 用于音频处理和合成
  │   ├── mmaudio_large_44k_v2_fp16.safetensors  # 44kHz音频处理
  │   ├── mmaudio_synchformer_fp16.safetensors  # 音频同步模型
  │   └── mmaudio_vae_44k_fp16.safetensors  # 音频VAE模型
  ├── mmdets                  # 多模态检测模型 - OpenMMLab开发的检测工具集
  ├── mvadapter               # MV-Adapter视频适配器 - 用于视频处理
  │   ├── mvadapter_i2mv_sdxl.safetensors  # 图像到视频适配器
  │   └── mvadapter_t2mv_sdxl.safetensors  # 文本到视频适配器
  ├── onnx                    # ONNX格式模型 - 微软开发的开放神经网络交换格式
  ├── photomaker              # PhotoMaker个性化模型 - 用于个性化照片生成
  │   └── pulid_flux_v0.9.0.safetensors  # PULID-Flux集成版
  ├── pulid                   # PULID图像处理模型 - 用于图像增强和处理
  │   ├── ip-adapter_pulid_sdxl_fp16.safetensors  # SDXL适配器
  │   └── pulid_flux_v0.9.1.safetensors  # Flux集成版
  ├── rembg                   # 背景移除模型 - 用于自动抠图
  │   └── (包含u2net等多个变体,支持不同场景)
  ├── sam2                    # SAM2分割模型 - Meta升级版分割模型
  │   ├── sam2.1_hiera_base_plus-fp16.safetensors  # Base+版本
  │   ├── sam2.1_hiera_large-fp16.safetensors  # Large版本
  │   ├── sam2_hiera_small.safetensors  # Small版本
  │   └── sam2_hiera_tiny.safetensors  # Tiny版本
  ├── sams                    # SAM分割模型 - Meta开发的分割模型
  │   └── (包含mobile_sam等轻量级变体)
  ├── style_models            # 风格模型 - 用于艺术风格迁移
  │   └── flux1-redux-dev.safetensors  # Flux风格增强模型
  ├── text_encoders           # 文本编码器 - 用于文本特征提取
  │   ├── open-clip-xlm-roberta-large-vit-huge-14_visual_fp16.safetensors  # XLM-RoBERTa编码器
  │   └── umt5-xxl-enc-fp8_e4m3fn.safetensors  # UMT5-XXL编码器
  ├── ultralytics            # Ultralytics目标检测模型 - 商业级检测方案
  │   ├── bbox               # 边界框检测 - 物体定位
  │   └── segm               # 语义分割 - 场景理解
  ├── unet                    # UNet模型 - 用于图像分割和生成
  │   ├── IC_Light_ldm       # IC Light LDM变体
  │   │   ├── iclight_sd15_fbc_unet_ldm.safetensors  # FBC变体
  │   │   └── iclight_sd15_fc_unet_ldm.safetensors  # FC变体
  │   ├── IC_light           # IC Light标准变体
  │   │   ├── iclight_sd15_fbc.safetensors  # FBC变体
  │   │   └── iclight_sd15_fc.safetensors  # FC变体
  │   ├── UltiUpscale.safetensors  # 终极上采样模型
  │   ├── flux1-dev-fp8.safetensors  # Flux开发版
  │   └── sd3.5_large.safetensors  # SD3.5大型模型
  ├── upscale_models         # 图像上采样模型
  │   ├── OmniSR_X2_DIV2K.safetensors  # 2倍放大模型
  │   ├── OmniSR_X3_DIV2K.safetensors  # 3倍放大模型
  │   └── OmniSR_X4_DIV2K.safetensors  # 4倍放大模型
  ├── vae                    # VAE模型 - 变分自编码器
  │   ├── Wan2_1_VAE_bf16.safetensors  # Wan2.1 BF16精度
  │   ├── Wan2_1_VAE_fp32.safetensors  # Wan2.1 FP32精度
  │   ├── sd3.5vae.safetensors  # SD3.5专用VAE
  │   ├── sdxl_vae.safetensors  # SDXL专用VAE
  │   └── vae-ft-mse-840000-ema-pruned.safetensors  # 优化训练VAE
  ├── vae_approx             # VAE近似模型 - 用于加速VAE推理
  ├── vitmatte               # VitMatte抠图模型 - 基于Vision Transformer的抠图
  │   └── model.safetensors  # 主要模型文件
  ├── yolo                   # YOLO目标检测模型 - Joseph Redmon开创
  │   └── (包含v8/v9多个变体,用于实时检测)
  ├── yolo-world             # YOLO-World通用检测器 - 开放词表目标检测
  └── yolo_world             # YOLO-World扩展模型 - 增强版通用检测器

常见的 AI 模型,会存储到AI Models 组织下,方便在 CNB 中内网快速拉取。模型文件来自开源社区,请遵守各模型使用协议及核对文件安全性。

https://cnb.cool/AIxcnb/models/ComfyUI_models.git

https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack1.git

https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack2.git

cnb:AI Models/zhanzhangtuijian

https://space.bilibili.com/175365958

About

CNB官方 AI-MODELS ComfyUI 公益模型库

Language
Python3.6%
Markdown0.4%
Cuda0%
gitignore0%
Others96%