Skip to content

AI绘画课:ComfyUI上手指南

Credits:

ComfyUI Example:comfyanonymous.github.io/ComfyUI_examples Ultimate SD Upscale节点:github.com/ssitu/ComfyUI_UltimateSDUpscale ComfyUI提示词反推:github.com/pythongosssss/ComfyUI-WD14-Tagger Masquerade节点包:github.com/BadCafeCode/masquerade-nodes-comfyui Essentials节点包:github.com/cubiq/ComfyUI_essentials WAS节点包:github.com/WASasquatch/was-node-suite-comfyui 效率节点包:github.com/jags111/efficiency-nodes-comfyui

本期视频内主要用到的绘图模型: (如果你喜欢它们的风格,欢迎访问模型主页下载并留下好评支持模型作者!) AWPainting:(by@DynamicWangsliblib.art/modelinfo/1fd281cf6bcf01b95033c03b471d8fd8 civitai.com/models/84476/awpainting MajicMix Lux:(by@麦橘MERJICliblib.art/modelinfo/c6cfead266b9b38cd8257655ca76dbc2 civitai.com/models/56967/majicmix-lux 80’s Fusion LoRA:(by ForkY) civitai.com/models/112241?modelVersionId=123524 Isabelia & Retro Anime LoRA:(by Isabelia) civitai.com/models/211819/retro-anime civitai.com/models/189416/isabelia

1. 高清修复与图片放大 (Upscaling)

Section titled “1. 高清修复与图片放大 (Upscaling)”

在 WebUI 中,放大有“高清修复(High-Res Fix)”、“SD Upscale脚本”和“后期处理”三种方式。ComfyUI 同样都能实现,且更灵活。

方式一:潜空间放大 (Latent Upscale) —— 即“高清修复”

Section titled “方式一:潜空间放大 (Latent Upscale) —— 即“高清修复””

这是最标准的文生图高清修复流程。

  • 核心逻辑:文生图 (低分辨率) -> 放大潜空间数据 -> 二次采样 (高分辨率)。
  • 节点流程
    • 常规文生图流程,生成第一次的 Latent。

    • 连接 Upscale Latent 节点:设置目标分辨率(如放大到 1.5 倍)。

    • 连接 第二个 KSampler:进行二次采样。

    • 关键参数:第二个 KSampler 的 Denoise (去噪/重绘幅度)

      建议值0.5 - 0.8

      过低 (<0.5):容易出现噪点,去噪不干净。

      过高 (>0.8):容易产生幻觉(如多头、多手),画面变化过大。

方式二:模型放大 (Model Upscale) —— 即“后期处理”

Section titled “方式二:模型放大 (Model Upscale) —— 即“后期处理””

利用 ESRGAN、4x-UltraSharp 等传统超分模型进行放大。

  • 核心逻辑:Latent -> VAE 解码成图片 -> 加载放大模型 -> 放大图片 -> (可选) VAE 编码回 Latent 进行图生图。
  • 所需节点
    • Load Upscale Model:加载 4x-UltraSharpR-ESRGAN 等模型(存放在 models/upscale_models 文件夹)。
    • Image Upscale with Model:应用放大模型。
  • 优缺点:相比潜空间放大,这种方式不会轻易改变画面内容,但涉及 VAE 编解码,显存占用较高,速度较慢。

方式三:分块放大 (Ultimate SD Upscale) —— 防爆显存神器

Section titled “方式三:分块放大 (Ultimate SD Upscale) —— 防爆显存神器”
  • 原理:将图片切成小块(如 512x512)分别绘制,最后拼接。解决大图爆显存问题。
  • 节点Ultimate SD Upscale (需要安装自定义节点)。
  • 用法:替代常规的 KSampler。输入图片、模型、放大倍数,即可全自动分块放大。

很多新手找不到 ComfyUI 的蒙版在哪里画,其实它藏得很深。

  • 右键点击 Load Image 节点里的图片 -> 选择 Open in MaskEditor
  • 涂抹需要重绘的区域 -> 点击 Save to node。此时 Load Image 节点的 MASK 端口就有了数据。

在 WebUI 中我们习惯了“原图”和“填充”模式,在 ComfyUI 中对应不同的节点:

A. 彻底重绘 (对应“填充/空白潜空间”)

Section titled “A. 彻底重绘 (对应“填充/空白潜空间”)”
  • 节点VAE Encode (for Inpainting)
  • 逻辑:它会把蒙版区域视为纯黑色/空白
  • 适用场景:大改画面。
  • 注意Denoise 必须设置很高 (约 0.8 - 1.0),否则生成的区域会是灰色的色块,因为 AI 无法从纯黑中推断出内容。
  • 节点Set Latent Noise Mask
  • 逻辑:将原图的内容保留在潜空间中,只在蒙版区加噪。
  • 适用场景:保留原图轮廓,微调细节。
  • 优势:可以使用 0.5 - 0.6 的中等重绘幅度,融合更自然。

为了让重绘边缘更自然,通常需要处理蒙版:

  • Mask Grow (扩展):扩大蒙版范围。
  • Mask Blur (羽化):模糊蒙版边缘,使过渡柔和。
  • Invert Mask (反转):切换“重绘蒙版内容”或“重绘背景”。
  • 技巧:如果不确定蒙版长什么样,可以使用 Mask to Image -> Preview Image 节点来预览处理后的蒙版。

  • 基本连接:使用 Load LoRA 节点,插入在 Checkpoint 和 KSampler 之间(像接水管一样串联)。
  • 双重权重:ComfyUI 的 LoRA 有两个权重(Model 和 CLIP)。通常设置为相等(例如都设为 0.5)即对应 WebUI 的效果。
  • 批量加载:使用效率节点包 (Efficiency Nodes) 中的 LoRA Stack,可以像堆叠积木一样一次性加载多个 LoRA,无需拉很多根线。
  • 核心区别:WebUI 的 ControlNet 自动包含预处理,ComfyUI 必须单独加载预处理器 (Preprocessor)
  • 标准流程
    • Load Image (输入图)。
    • ControlNet Preprocessor (如 OpenPose Preprocessor):生成骨架图。
    • Load ControlNet Model:加载对应的模型(如 control_openpose)。
    • Apply ControlNet:接收预处理图和模型,输出 Conditioning 连接到 KSampler。
  • 多重 ControlNet:将多个 Apply ControlNet 节点串联起来(一个接一个)。
  • 开关技巧:右键点击节点选择 Bypass (忽略),可以暂时关闭某个 ControlNet 而无需断开连线。

4. 终极实战:全自动风格迁移工作流

Section titled “4. 终极实战:全自动风格迁移工作流”

ComfyUI 的真正威力在于自动化。视频演示了一个将“真人照片转为动漫风格”的批量工作流。

工作流逻辑拆解:

  1. 输入:加载一张真人照片。
  2. 自动尺寸:使用 Get Image Size 节点读取原图宽高,自动同步给生图节点。
  3. 自动反推提示词:使用 WD14 Tagger 节点,自动识别原图内容生成 Prompt。
  4. 提示词组合:使用 Conditioning Combine 节点,将反推的 Prompt 和我们预设的风格触发词 (Trigger Words) 自动合并。
  5. 控制约束:经过 OpenPose 和 LineArt 两组 ControlNet,锁定人物姿势和轮廓。
  6. 生成与放大:文生图 -> 放大 -> 输出。

价值:搭建好这个流程后,你只需要替换第一张输入图片,后面所有的反推、重绘、控制、放大都会全自动执行。这在 WebUI 中需要手动操作无数次,而在 ComfyUI 中可以一键批量处理 100 张图片。


下一步: 现在的你已经掌握了 ComfyUI 的核心三件套。下一课,我们将综合运用这些知识,从零开始搭建属于你自己的专属工作流!

解锁 Pro 权限

您正在使用 Lite 体验版。
升级 Pro,立即解锁全站核心工作流、商业源文件
以及后续永久更新。

立即获取密钥