ComfyUI核心节点详解:AI漫剧必备的工作流节点大全
系统讲解ComfyUI中AI漫剧创作必备的核心节点,包括KSampler、VAE、ControlNet、IP-Adapter、LoRA等节点的功能、参数配置和实战应用,帮助创作者构建高效的AI漫剧生成工作流。
一、ComfyUI节点体系概览
节点分类
ComfyUI的节点按照功能可以分为以下几大类:
ComfyUI节点体系
├── 模型加载节点(Loaders)
│ ├── Checkpoint Loader - 加载主模型
│ ├── LoRA Loader - 加载LoRA模型
│ ├── VAE Loader - 加载VAE模型
│ └── CLIP Vision Loader - 加载CLIP视觉模型
├── 条件节点(Conditioning)
│ ├── CLIP Text Encode - 文本编码
│ ├── Conditioning Combine - 条件合并
│ └── Conditioning Set Area - 区域设置
├── 采样节点(Sampling)
│ ├── KSampler - 核心采样器
│ ├── KSampler Advanced - 高级采样器
│ └── Sampler Custom - 自定义采样器
├── 潜空间节点(Latent)
│ ├── Empty Latent Image - 空白潜空间图像
│ ├── Latent Upscale - 潜空间放大
│ └── Latent Blend - 潜空间混合
├── 图像节点(Image)
│ ├── VAE Decode - VAE解码
│ ├── VAE Encode - VAE编码
│ ├── Load Image - 加载图像
│ └── Save Image - 保存图像
├── ControlNet节点
│ ├── Load ControlNet Model - 加载ControlNet模型
│ ├── Apply ControlNet - 应用ControlNet
│ └── ControlNet Preprocessor - 预处理器
├── IP-Adapter节点
│ ├── Load IP-Adapter - 加载IP-Adapter
│ ├── Apply IP-Adapter - 应用IP-Adapter
│ └── IP-Adapter FaceID - 人脸识别适配
└── 辅助节点(Utility)
├── Preview Image - 图像预览
├── Switch Node - 条件切换
└── Reroute Node - 路由节点
二、模型加载节点
2.1 Checkpoint Loader(检查点加载器)
Checkpoint Loader是ComfyUI中最基础的节点,用于加载Stable Diffusion主模型。
输入参数:
| 参数 | 说明 | 推荐设置 |
|---|---|---|
| ckpt_name | 模型文件名 | 根据需求选择SD 1.5/SDXL/Flux模型 |
输出端口:
| 端口 | 数据类型 | 说明 |
|---|---|---|
| MODEL | MODEL | 主模型,连接到KSampler |
| CLIP | CLIP | 文本编码器,连接到CLIP Text Encode |
| VAE | VAE | 变分自编码器,连接到VAE Decode |
AI漫剧中的模型选择建议:
| 模型类型 | 适用场景 | 推荐模型 |
|---|---|---|
| SD 1.5 | 二次元/漫画风格 | MeinaMix、Anything V5、Counterfeit |
| SDXL | 写实/半写实风格 | Juggernaut XL、DreamShaper XL |
| SD 3.5 | 多风格通用 | Stable Diffusion 3.5 Medium/Large |
| Flux | 高质量写实 | Flux.1 Dev/Schnell |
[!TIP] 对于AI漫剧创作,建议准备2-3个不同风格的Checkpoint模型。一个用于角色设计(写实风格),一个用于场景生成(风景/建筑),一个用于特殊效果(漫画线条/水彩等)。
2.2 LoRA Loader(LoRA加载器)
LoRA(Low-Rank Adaptation)是一种轻量化的模型微调方法,可以在不改变主模型的情况下调整生成风格或添加特定元素。
输入参数:
| 参数 | 说明 | 推荐范围 |
|---|---|---|
| lora_name | LoRA文件名 | 根据需求选择 |
| strength_model | 模型强度 | 0.3-1.0 |
| strength_clip | CLIP强度 | 0.3-1.0 |
AI漫剧常用LoRA类型:
| LoRA类型 | 用途 | 强度建议 |
|---|---|---|
| 角色LoRA | 固定特定角色外观 | 0.6-0.8 |
| 画风LoRA | 统一画面风格 | 0.4-0.7 |
| 服装LoRA | 添加特定服装 | 0.5-0.8 |
| 场景LoRA | 添加特定场景元素 | 0.3-0.6 |
| 线稿LoRA | 增强线条感 | 0.4-0.7 |
| 上色LoRA | 特定上色风格 | 0.5-0.8 |
多LoRA叠加技巧:
在AI漫剧创作中,经常需要同时使用多个LoRA。
注意以下原则:
1. 总强度不宜超过1.5(所有LoRA强度之和)
2. 角色LoRA优先级最高,强度最大
3. 画风LoRA强度适中,避免过度影响角色特征
4. 使用LoRA Stack节点管理多个LoRA
2.3 VAE Loader(VAE加载器)
VAE(Variational Autoencoder)负责在潜空间和像素空间之间进行转换,直接影响生成图像的色彩和细节表现。
常用VAE推荐:
| VAE名称 | 特点 | 适用场景 |
|---|---|---|
| sdxl_vae.safetensors | SDXL默认VAE | SDXL模型通用 |
| vae-ft-mse-840000 | 色彩鲜艳 | 写实风格 |
| kl-f8-anime2 | 动画优化 | 二次元风格 |
| vae-ft-ema | 细节丰富 | 高质量生成 |
[!WARNING] 不同模型可能需要不同的VAE才能获得最佳效果。SDXL模型通常自带VAE,不需要额外加载。SD 1.5模型建议使用vae-ft-mse-840000获得更好的色彩表现。如果生成的图片颜色发灰或过饱和,尝试更换VAE。
三、条件节点
3.1 CLIP Text Encode(CLIP文本编码器)
CLIP Text Encode将文本提示词转换为模型可以理解的条件向量,是控制生成内容的核心节点。
输入参数:
| 参数 | 说明 | 示例 |
|---|---|---|
| text | 提示词文本 | "1girl, long black hair, school uniform, smiling" |
| clip | CLIP模型 | 从Checkpoint Loader输出 |
AI漫剧提示词编写技巧:
正向提示词结构(从重要到次要):
1. 角色描述(最重要)
masterpiece, best quality, 1girl, character_name,
age, hair_style, hair_color, eye_color,
2. 服装和配饰
outfit_description, accessories,
3. 动作和表情
pose, expression, gesture,
4. 场景和环境
background, environment, lighting, weather,
5. 画风和镜头
art_style, camera_angle, composition,
6. 质量标签
detailed, highres, 8k, sharp_focus
反向提示词示例:
(worst quality, low quality:1.4), deformed, bad anatomy,
bad hands, missing fingers, extra digit, fewer digits,
cropped, mutation, poorly drawn face, poorly drawn hands,
mutation, deformed, blurry, out of focus, long neck,
long body, disgusting, poorly drawn, mutilated, mangled,
lowres, bad anatomy, bad proportions, watermark, text
3.2 Conditioning Combine(条件合并)
当使用多个LoRA或需要合并多个条件时,使用此节点。
典型用法:
CLIP Text Encode (角色描述)
↓
Conditioning Combine ← CLIP Text Encode (场景描述)
↓
KSampler (positive)
3.3 Conditioning Set Area(区域条件设置)
在AI漫剧中,有时需要指定条件只作用于图像的特定区域。
| 参数 | 说明 |
|---|---|
| width | 区域宽度 |
| height | 区域高度 |
| x | 区域X坐标 |
| y | 区域Y坐标 |
| strength | 条件强度 |
四、采样节点
4.1 KSampler(核心采样器)
KSampler是ComfyUI中最核心的节点,负责实际的图像生成过程。理解KSampler的各个参数,是掌握ComfyUI的关键。
完整参数说明:
| 参数 | 说明 | 推荐值 | 影响范围 |
|---|---|---|---|
| seed | 随机种子 | 随机/固定 | 生成结果的随机性 |
| steps | 采样步数 | 20-30 | 生成质量和速度 |
| cfg | 引导系数 | 5-8 | 提示词遵循度 |
| sampler_name | 采样器名称 | euler_ancestral | 采样算法 |
| scheduler | 调度器 | normal | 步进策略 |
| denoise | 去噪强度 | 0.7-1.0 | 变化程度 |
| model | 模型 | 从Loader获取 | - |
| positive | 正向条件 | 从CLIP Encode获取 | - |
| negative | 反向条件 | 从CLIP Encode获取 | - |
| latent_image | 潜空间图像 | 从Empty Latent获取 | - |
4.2 采样器选择指南
不同采样器有不同的特点,适合不同的创作场景:
| 采样器 | 速度 | 质量 | 创意性 | 适用场景 |
|---|---|---|---|---|
| euler | 快 | 中 | 低 | 快速预览 |
| euler_ancestral | 快 | 中 | 高 | 创意探索 |
| dpmpp_2m | 中 | 高 | 中 | 通用推荐 |
| dpmpp_2m_sde | 中 | 很高 | 中 | 高质量生成 |
| dpmpp_3m_sde | 慢 | 很高 | 中 | 精细控制 |
| ddim | 中 | 中 | 低 | img2img |
| uni_pc | 快 | 高 | 中 | 平衡选择 |
AI漫剧推荐采样器配置:
# 角色设计(需要高质量和一致性)
sampler: dpmpp_2m_sde
scheduler: karras
steps: 30
cfg: 7
# 场景生成(需要创意性和多样性)
sampler: euler_ancestral
scheduler: normal
steps: 25
cfg: 6
# 快速预览(需要速度)
sampler: euler
scheduler: normal
steps: 15
cfg: 5
# 精细调整(img2img/重绘)
sampler: ddim
scheduler: normal
steps: 20
cfg: 5
4.3 KSampler Advanced(高级采样器)
KSampler Advanced在基础KSampler上增加了更多控制选项:
| 额外参数 | 说明 |
|---|---|
| add_noise | 是否添加噪声(关闭可实现零噪声生成) |
| noise_seed | 独立的噪声种子 |
| start_at_step | 从指定步数开始采样 |
| end_at_step | 在指定步数结束采样 |
| return_with_leftover_noise | 是否保留剩余噪声 |
高级用法 - 渐进式生成:
# 第一阶段:生成基础构图
KSampler Advanced (steps: 10, start_at: 0, end_at: 10, add_noise: yes)
↓
# 第二阶段:添加细节
KSampler Advanced (steps: 10, start_at: 10, end_at: 20, add_noise: no)
↓
# 第三阶段:精细调整
KSampler Advanced (steps: 10, start_at: 20, end_at: 30, add_noise: no)
五、ControlNet节点
5.1 ControlNet概述
ControlNet是AI漫剧创作中最关键的技术之一。它允许你通过参考图像(如姿态图、线稿、深度图等)来精确控制生成图像的构图和姿态,是实现角色一致性和场景连贯性的核心工具。
5.2 常用ControlNet类型
| ControlNet类型 | 功能 | AI漫剧应用 |
|---|---|---|
| OpenPose | 人体姿态控制 | 角色动作一致性 |
| Canny | 边缘检测 | 场景轮廓控制 |
| Depth | 深度图 | 空间关系控制 |
| Lineart | 线稿提取 | 漫画线条风格 |
| SoftEdge | 柔和边缘 | 自然轮廓保持 |
| Segmentation | 语义分割 | 区域颜色控制 |
| Tile | 分块控制 | 超分辨率放大 |
| Inpainting | 局部重绘 | 角色面部修复 |
5.3 ControlNet工作流配置
基础ControlNet工作流:
Load Image(参考图)
↓
ControlNet Preprocessor(预处理)
↓
Load ControlNet Model(加载模型)
↓
Apply ControlNet(应用控制)
↓
KSampler(采样生成)
OpenPose角色姿态控制:
# AI漫剧中最常用的ControlNet配置
模型: controlnet-openpose-sdxl-1.0
预处理器: dwpose_openpose_full
强度: 0.7-0.9
适用场景: 控制角色在不同分镜中的姿态一致性
Canny场景轮廓控制:
# 用于保持场景在不同分镜中的轮廓一致
模型: controlnet-canny-sdxl-1.0
预处理器: canny
参数:
low_threshold: 0.1
high_threshold: 0.2
强度: 0.5-0.7
适用场景: 场景切换时的构图保持
5.4 多ControlNet组合
在AI漫剧创作中,经常需要同时使用多个ControlNet来精确控制生成结果:
┌→ Apply ControlNet 1 (OpenPose, strength: 0.8)
│
CLIP Text Encode → ┼→ Apply ControlNet 2 (Canny, strength: 0.5)
│
└→ Apply ControlNet 3 (Depth, strength: 0.3)
↓
KSampler
[!TIP] 多ControlNet叠加时,注意控制总强度。建议将最重要的ControlNet(如OpenPose)强度设为0.7-0.9,辅助ControlNet(如Canny、Depth)强度设为0.3-0.5。总强度超过2.0可能导致生成结果过于僵硬。
六、IP-Adapter节点
6.1 IP-Adapter概述
IP-Adapter是一种图像提示适配器,可以将参考图像的风格、角色、色彩等特征注入到生成过程中。对于AI漫剧创作,IP-Adapter是实现角色一致性的重要工具。
6.2 IP-Adapter类型
| 类型 | 功能 | 适用场景 |
|---|---|---|
| IP-Adapter Plus | 通用图像适配 | 风格迁移、角色参考 |
| IP-Adapter FaceID | 人脸识别适配 | 角色面部一致性 |
| IP-Adapter FaceID Plus | 人脸+通用适配 | 角色整体一致性 |
| IP-Adapter Full | 全量适配 | 高保真参考 |
| IP-Adapter Plus FaceID V2 | V2人脸适配 | 改进的人脸一致性 |
6.3 IP-Adapter工作流配置
基础IP-Adapter工作流:
Load Image(角色参考图)
↓
CLIP Vision Encode(视觉编码)
↓
Load IP-Adapter Model(加载IP-Adapter)
↓
Apply IP-Adapter(应用适配)
↓
KSampler(采样生成)
FaceID角色一致性工作流:
# AI漫剧角色一致性核心配置
IP-Adapter模型: ip-adapter-plus_faceid_v2_sdxl
CLIP Vision: CLIP-ViT-H-14-laion2B-s32B-b79K
强度: 0.7-0.85
权重类型: linear
开始步数: 0
结束步数: 100%
# 配合使用:
# 1. 准备一张高质量的角色正面照作为参考
# 2. 使用FaceID提取面部特征
# 3. 在不同分镜中保持同一参考图
# 4. 配合LoRA进一步增强一致性
6.4 IP-Adapter + ControlNet组合
这是AI漫剧创作中最强大的组合之一:
角色参考图 → IP-Adapter FaceID(保持角色面部一致)
+
姿态参考图 → ControlNet OpenPose(控制角色姿态)
+
场景描述 → CLIP Text Encode(定义场景内容)
↓
KSampler(生成最终图像)
[!TIP] IP-Adapter和ControlNet的组合可以实现"换装不换脸"的效果。使用FaceID保持角色面部,使用OpenPose控制姿态,使用CLIP Text Encode描述不同的服装和场景。这是AI漫剧制作中最核心的技术组合。
七、潜空间和图像节点
7.1 Empty Latent Image(空白潜空间图像)
设置生成图像的尺寸和批次。
| 参数 | 说明 | 推荐值 |
|---|---|---|
| width | 宽度 | 1024/832/768 |
| height | 高度 | 1024/1216/1536 |
| batch_size | 批次大小 | 1-4 |
AI漫剧常用分辨率:
| 比例 | 分辨率 | 用途 |
|---|---|---|
| 1:1 | 1024x1024 | 角色设计、封面 |
| 3:4 | 832x1216 | 竖版漫剧(推荐) |
| 2:3 | 768x1152 | 竖版漫剧 |
| 16:9 | 1344x768 | 横版场景 |
| 4:3 | 1152x896 | 通用场景 |
7.2 VAE Decode / VAE Encode
VAE Decode将潜空间图像转换为可见的像素图像,VAE Encode则执行相反的操作。
典型用法:
# 文生图(txt2img)
KSampler → VAE Decode → Save Image
# 图生图(img2img)
Load Image → VAE Encode → KSampler → VAE Decode → Save Image
# 局部重绘(inpainting)
Load Image → VAE Encode (for Inpainting) → KSampler → VAE Decode → Save Image
7.3 Latent Upscale(潜空间放大)
在不损失质量的前提下放大图像。
| 放大方法 | 说明 | 推荐场景 |
|---|---|---|
| nearest-exact | 最近邻 | 像素风格 |
| bilinear | 双线性 | 通用 |
| bicubic | 双三次 | 高质量 |
| lanczos | 兰索斯 | 最高质量 |
八、AI漫剧完整工作流示例
8.1 角色设计工作流
工作流名称:AI漫剧角色设计
用途:生成高质量的角色设定图
节点连接:
1. Checkpoint Loader (Juggernaut XL)
├── MODEL → LoRA Loader → KSampler
├── CLIP → CLIP Text Encode (正向)
└── VAE → VAE Decode
2. CLIP Text Encode (正向)
"masterpiece, best quality, 1girl, 25 years old,
long black hair, brown eyes, wearing white dress,
gentle smile, standing pose, full body,
simple white background, studio lighting"
3. CLIP Text Encode (反向)
"(worst quality:1.4), deformed, bad anatomy,
bad hands, missing fingers, blurry"
4. LoRA Loader
模型: 角色风格LoRA
强度: 0.6
5. Empty Latent Image
尺寸: 832 x 1216 (3:4竖版)
6. KSampler
sampler: dpmpp_2m_sde
scheduler: karras
steps: 30
cfg: 7
denoise: 1.0
7. VAE Decode → Save Image
8.2 分镜生成工作流(带角色一致性)
工作流名称:AI漫剧分镜生成(角色一致性)
用途:保持角色外观一致的分镜批量生成
节点连接:
1. Checkpoint Loader (SDXL模型)
2. LoRA Loader (角色LoRA, strength: 0.7)
3. IP-Adapter FaceID (角色参考图, strength: 0.8)
4. ControlNet OpenPose (姿态参考, strength: 0.7)
5. CLIP Text Encode (场景描述)
6. Empty Latent Image (832 x 1216)
7. KSampler (dpmpp_2m_sde, karras, 30步, cfg: 7)
8. VAE Decode → Save Image
关键配置:
- IP-Adapter使用FaceID模型,保持角色面部一致
- ControlNet使用OpenPose,控制角色姿态
- LoRA进一步增强角色特征
- CLIP Text Encode描述场景和服装变化
8.3 场景生成工作流
工作流名称:AI漫剧场景生成
用途:生成高质量的背景场景
节点连接:
1. Checkpoint Loader (风景专用模型)
2. CLIP Text Encode (场景描述)
3. ControlNet Depth/Canny (构图参考, strength: 0.4)
4. Empty Latent Image (1344 x 768, 16:9横版)
5. KSampler (euler_ancestral, normal, 25步, cfg: 6)
6. VAE Decode → Save Image
提示词示例:
"anime style cityscape, night scene, neon lights,
tall buildings, rain, wet streets, reflections,
cinematic lighting, wide angle shot, detailed background,
no humans"
九、节点优化技巧
9.1 性能优化
减少采样步数:
使用LCM(Latent Consistency Models)可以大幅减少采样步数:
# LCM加速配置
LCM LoRA: lcm-lora-sdxl
采样器: lcm
步数: 4-8
CFG: 1.0-2.0
# 注意:需要安装LCM LoRA模型
# 下载地址:https://huggingface.co/latent-consistency/lcm-lora-sdxl
使用TensorRT加速:
安装ComfyUI-TensorRT插件后,可以将模型编译为TensorRT引擎,显著提升推理速度(通常2-5倍加速)。
9.2 质量优化
Hi-Res Fix(高分辨率修复):
# 两阶段生成
第一阶段:低分辨率生成
Empty Latent Image (512 x 768)
KSampler (20步) → VAE Decode
第二阶段:高分辨率放大
Latent Upscale (1024 x 1536)
KSampler (15步, denoise: 0.3) → VAE Decode
FreeU增强细节:
# 使用FreeU节点增强生成质量
# 安装ComfyUI-FreeU插件
# 在KSampler前添加FreeU节点
# 参数:
# backbone_scale: 1.2
# skip_scale: 0.9
9.3 批量生成技巧
# 使用batch_size参数批量生成
Empty Latent Image:
width: 832
height: 1216
batch_size: 4 # 一次生成4张
# 配合不同的seed生成多个变体
# 使用Primitive节点控制seed
# seed: random → 每次生成不同结果
# seed: fixed → 每次生成相同结果
十、总结
AI漫剧核心节点速查表
| 节点 | 优先级 | 用途 |
|---|---|---|
| Checkpoint Loader | 必需 | 加载主模型 |
| CLIP Text Encode | 必需 | 文本提示词编码 |
| KSampler | 必需 | 图像采样生成 |
| VAE Decode | 必需 | 潜空间解码 |
| Save Image | 必需 | 保存生成图像 |
| Empty Latent Image | 必需 | 设置画布尺寸 |
| LoRA Loader | 强烈推荐 | 风格/角色微调 |
| ControlNet Apply | 强烈推荐 | 姿态/构图控制 |
| IP-Adapter Apply | 强烈推荐 | 角色一致性 |
| Load Image | 推荐 | 加载参考图像 |
| Latent Upscale | 推荐 | 高分辨率放大 |
| ComfyUI-Manager | 必需 | 插件管理 |
[!TIP] 掌握ComfyUI节点的关键在于实践。建议从最简单的文生图工作流开始,每次只添加一个新节点,理解其作用后再继续添加。不要试图一次性构建复杂的工作流。当基础工作流稳定后,再逐步引入ControlNet、IP-Adapter等高级节点。保存每个阶段的工作流,方便回溯和学习。
相关教程

ComfyUI工作流详解:AI漫剧专业级画面生成方案
深入讲解ComfyUI在AI漫剧创作中的应用,包括安装配置、核心节点、角色一致性工作流、批量生成工作流,以及常用工作流模板推荐。

AI漫剧高效工作流搭建:从脚本到成片的标准化流水线
手把手教你搭建一套高效的AI漫剧创作工作流,包括极简方案、进阶方案和专业方案三套流水线,以及资产管理和复用方法。

AI漫剧工具全景对比:2026年最全的AI漫剧创作工具评测
全面对比2026年AI漫剧创作领域的所有主流工具,按创作环节分类评测,帮你找到最适合自己需求和工作流的最优工具组合。