ComfyUI 是一个基于 Stable Diffusion 的开源 AI 绘图工具,采用了模块化的节点式工作流设计。它通过将 Stable Diffusion 的各个组件和处理步骤抽象为独立的节点,使得用户可以通过直观的拖拽、连接操作来构建复杂的图像生成流程。
ComfyUI 解决了传统 AI 绘图工具易用性差、扩展性低的问题。其模块化设计和直观的 Web 界面大大降低了用户的使用门槛,无需深入了解底层技术细节,即可快速构建和调整工作流。同时,ComfyUI 还提供了强大的自定义节点机制,允许开发者轻松扩展新的功能和模型,使其能够适应不断发展的AI绘图领域。
ComfyUI 最初由开发者 Comfyanonymous 在 2022 年末发起,旨在提供一个简单、直观的 Stable Diffusion Web UI。早期版本实现了基本的节点类型和 Web 界面,展示了其模块化设计的优势,吸引了一批 AI 绘图爱好者的关注。
在 2023 年春夏,ComfyUI 进入了快速发展阶段。项目不断增加新的节点类型,如 ControlNet、Inpaint、Upscale等,支持更多的图像控制和后处理功能。同时,ComfyUI 引入了自定义节点机制,大大扩展了其功能和适用范围。项目也集成了更多 Stable Diffusion 衍生模型,为用户提供了更多选择。
随着用户社区的不断壮大,ComfyUI 的生态也日益丰富。社区成员积极贡献工作流、节点脚本、训练模型等资源,推动项目的发展。ComfyUI 举办了一系列社区活动,促进了用户间的交流和创作。项目代码库也迎来了更多贡献者,社区力量成为 ComfyUI 发展的重要推动力。
2023 年冬开始,ComfyUI 开始着眼于生态融合和应用拓展。项目与其他 AI 绘图工具建立了联系,支持工作流的导入导出和 API 集成。ComfyUI 也开始探索更多应用场景,如虚拟主播、游戏 mod 等,拓宽了 AI绘图的应用范围。越来越多的开发者和公司开始关注和使用 ComfyUI,其发展前景备受看好。
前两周,Comfy 推出跨平台的 ComfyUI 安装包,现在我们可以一键安装 ComfyUI 了,这次更新不仅带来了全新的桌面版应用,还对用户界面进行了全面升级,并新增了自定义按键绑定、自动资源导入等一系列实用功能,让工作流程更加流畅。
今天我们深入到 ComyUI 的源码去看一下其实现原理和过程。
ComfyUI 执行的大概流程如下:
用户界面 -> 工作流定义 -> PromptQueue
↓
PromptExecutor 开始执行
↓
验证输入 (validate_prompt)
↓
构建执行图
↓
按顺序执行节点
↓
缓存结果
↓
返回结果到界面
ComfyUI 的一个明显的优点是有着灵活的图形用户界面,可以用于处理复杂的图像生成和处理工作流。
它具有精良的架构设计,通过模块化设计、缓存优化、资源管理以及错误处理机制,确保了系统的高效性和可靠性。
ComfyUI 的启动过程分为几个主要阶段:预启动脚本的执行、节点系统的初始化、服务器的启动与 WebSocket 的连接。
1. 启动前准备
在系统启动前,ComfyUI 会首先执行预启动脚本,确保自定义节点的环境准备就绪。这一过程允许在加载节点之前执行一些必要的自定义操作。
def execute_prestartup_script():
# 执行自定义节点的预启动脚本
for custom_node_path in node_paths:
if os.path.exists(script_path):
execute_script(script_path)
2. 节点系统初始化
节点系统是 ComfyUI 的核心组件。此阶段会加载内置节点以及用户自定义的节点,并注册到系统中供后续使用。
def init_extra_nodes():
# 加载内置节点
import_failed = init_builtin_extra_nodes()
# 加载自定义节点
init_external_custom_nodes()
comfy_extras
目录下,定义了基本的图像处理功能。custom_nodes
目录添加自定义节点,扩展系统的功能。3. 服务器初始化
服务器初始化是启动 ComfyUI 的 Web 服务器的过程。它包括 WebSocket 的初始化,允许前端和后端实时通信。此外,执行队列也会在此阶段创建,用于管理节点的执行顺序和任务调度。
class PromptServer:
def __init__(self, loop):
# 初始化 Web 服务器
self.app = web.Application()
# 初始化 WebSocket
self.sockets = dict()
# 初始化执行队列
self.prompt_queue = None
工作流执行是 ComfyUI 的核心功能,它包括从提交工作流到执行节点的整个过程。以下是工作流执行的几个关键步骤。
1. 工作流验证
首先,系统会对提交的工作流进行验证,确保节点的类型存在、节点连接有效,并且每个节点的输入符合要求。
def validate_prompt(prompt):
# 1. 验证节点类型是否存在
# 2. 验证是否有输出节点
# 3. 验证节点输入
return (valid, error, good_outputs, node_errors)
2. 执行准备
在验证通过后,系统会初始化执行环境。这包括创建动态的提示(DynamicPrompt
),以及初始化缓存系统,以避免重复计算并提高执行效率。
def execute(self, prompt, prompt_id, extra_data={}, execute_outputs=[]):
# 1. 初始化执行环境
with torch.inference_mode():
# 2. 创建动态提示
dynamic_prompt = DynamicPrompt(prompt)
# 3. 初始化缓存
is_changed_cache = IsChangedCache(dynamic_prompt, self.caches.outputs)
3. 节点执行
每个节点的执行流程包括获取节点的输入数据、检查是否有缓存的数据可以复用、执行节点逻辑、并缓存执行结果。节点执行是系统的核心环节,其过程如下:
def execute(server, dynprompt, caches, current_item, extra_data, executed, prompt_id, execution_list, pending_subgraph_results):
# 1. 获取节点信息
unique_id = current_item
inputs = dynprompt.get_node(unique_id)['inputs']
class_type = dynprompt.get_node(unique_id)['class_type']
# 2. 检查缓存
if caches.outputs.get(unique_id) is not None:
return (ExecutionResult.SUCCESS, None, None)
# 3. 获取输入数据
input_data_all, missing_keys = get_input_data(inputs, class_def, unique_id, caches.outputs, dynprompt, extra_data)
# 4. 执行节点
output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all)
# 5. 缓存结果
caches.ui.set(unique_id, {...})
ComfyUI 通过执行队列管理工作流中的节点执行顺序。每个节点的执行任务会被放入队列中,系统按顺序处理这些任务。
def prompt_worker(q, server):
e = execution.PromptExecutor(server, lru_size=args.cache_lru)
while True:
# 1. 获取队列任务
queue_item = q.get(timeout=timeout)
# 2. 执行提示
e.execute(item[2], prompt_id, item[3], item[4])
# 3. 资源管理
if need_gc:
comfy.model_management.cleanup_models()
gc.collect()
ComfyUI 的缓存系统采用层次化设计,可以缓存节点的输出、对象和 UI 相关的数据,极大地提高了执行效率。
class HierarchicalCache:
def __init__(self):
self.outputs = {} # 节点输出缓存
self.ui = {} # UI 相关缓存
self.objects = {} # 节点对象缓存
为了确保系统的稳定性,ComfyUI 提供了完善的资源管理和错误处理机制。在执行工作流的过程中,系统会自动清理未使用的模型和缓存,并在必要时触发内存回收。
资源管理
资源管理包括内存清理、模型卸载以及缓存清理。系统会根据内存使用情况自动卸载不必要的模型,并定期触发垃圾回收。
# 1. 内存清理
comfy.model_management.cleanup_models()
gc.collect()
# 2. 模型卸载
comfy.model_management.unload_all_models()
# 3. 缓存清理
cache.clean_unused()
错误处理
ComfyUI 实现了详细的错误处理机制,能够捕获并处理执行过程中发生的各种异常。对于节点执行中的错误,系统会记录错误信息并通知用户。
def handle_execution_error(self, prompt_id, prompt, current_outputs, executed, error, ex):
# 1. 处理中断异常
if isinstance(ex, comfy.model_management.InterruptProcessingException):
self.add_message("execution_interrupted", mes)
# 2. 处理其他错误
else:
self.add_message("execution_error", mes)
节点系统是 ComfyUI 的核心系统,其节点系统架构设计精巧,支持动态节点的加载、执行和扩展。今天我们详细介绍 ComfyUI 的节点系统架构,涵盖节点定义、执行流程、缓存机制、扩展性和系统特性等方面。
ComfyUI 的节点系统基于 Python 模块化设计,所有节点及其行为都通过类的形式进行定义。这些节点在启动时会进行注册,允许系统灵活地加载和使用内置节点与自定义节点。
核心节点定义与注册
ComfyUI 的节点系统在 nodes.py
中定义,并通过以下映射存储所有节点类及其显示名称:
NODE_CLASS_MAPPINGS = {} # 存储所有节点类的映射
NODE_DISPLAY_NAME_MAPPINGS = {} # 节点显示名称映射
节点通过类定义,并包含以下几个关键属性:
节点类型
ComfyUI 支持两种类型的节点:
comfy_extras
目录下。内置节点提供了常见的图像操作、模型加载和处理功能。custom_nodes
目录中添加自定义节点,系统在启动时自动加载这些节点。节点加载机制
ComfyUI 提供了灵活的节点加载机制,允许动态加载内置节点和自定义节点:
def init_builtin_extra_nodes():
extras_dir = os.path.join(os.path.dirname(os.path.realpath(__file__)), "comfy_extras")
extras_files = ["nodes_latent.py", "nodes_hypernetwork.py"]
对于自定义节点,ComfyUI 使用动态模块导入的方式加载:
def load_custom_node(module_path: str, ignore=set(), module_parent="custom_nodes") -> bool:
module_spec = importlib.util.spec_from_file_location(module_name, module_path)
module = importlib.util.module_from_spec(module_spec)
if hasattr(module, "NODE_CLASS_MAPPINGS"):
for name, node_cls in module.NODE_CLASS_MAPPINGS.items():
NODE_CLASS_MAPPINGS[name] = node_cls
这种设计使得 ComfyUI 可以方便地扩展和加载新节点,用户可以根据需求自定义节点功能并动态加载。
节点的执行逻辑由 execution.py
中的 PromptExecutor
类负责。该类管理了节点的执行流程,包括输入验证、节点函数执行、结果缓存和输出返回等。
执行流程
节点的执行流程如下:
FUNCTION
执行节点逻辑。执行器的核心代码如下:
class PromptExecutor:
def execute(self, prompt, prompt_id, extra_data=None, execute_outputs=[]):
# 节点执行的主要逻辑
ComfyUI 通过此执行器确保节点按顺序执行,并管理节点间的数据流动。
为了提高性能,减少重复计算,ComfyUI 实现了多层缓存系统,缓存节点的输出、对象和 UI 相关数据。缓存的实现类为 HierarchicalCache
,并且系统支持 LRU(最近最少使用) 缓存策略。后续章节会详细讲一下缓存,这里先略过。
ComfyUI 的节点系统依赖于图形化的数据流管理。节点之间通过输入和输出相互连接,系统会自动分析节点间的依赖关系,确保数据流在节点间正确传递。
节点图解析与执行顺序
ComfyUI 实现了完善的错误处理机制,确保节点执行过程中出现错误时,系统能够及时捕获并反馈给用户,避免系统崩溃。同时,ComfyUI 通过自动垃圾回收和内存管理功能,定期清理未使用的模型和缓存,优化系统资源使用。
常见的错误处理机制包括:
垃圾回收机制由以下代码管理:
gc_collect_interval = 10.0 # 每10秒进行一次垃圾回收
ComfyUI 提供了 WebSocket 和 REST API 来管理前端与后端的通信。通过这些接口,前端 UI 可以实时监控节点的执行状态,并获取节点的执行结果。
WebSocket 通信
WebSocket 负责处理前端与后端的实时通信,包括节点执行状态的推送和执行命令的接收。
@routes.get('/ws')
async def websocket_handler(request):
# 处理前端连接
# 发送执行状态
# 处理节点执行
REST API
REST API 用于获取节点信息和处理其他非实时请求。例如,可以通过以下 API 获取节点的详细信息:
@routes.get("/object_info/{node_class}")
async def get_object_info_node(request):
# 获取节点信息
ComfyUI 的节点系统设计非常灵活,支持用户根据需求扩展新功能。用户可以通过编写自定义节点来扩展系统的功能,而无需修改核心代码。系统支持热插拔的节点加载机制,使得自定义节点的开发和调试更加便捷。
动态类型系统
ComfyUI 支持动态类型系统,可以根据运行时情况自动调整节点的输入输出类型,确保系统的灵活性和可扩展性。
插件与自定义节点
自定义节点通过 custom_nodes
目录加载,用户可以编写自己的节点并通过 NODE_CLASS_MAPPINGS
注册到系统中。
在 ComfyUI 项目中,缓存系统的设计主要由以下几个部分组成:
ComfyUI 的缓存系统主要包括三种缓存类型:
这三种缓存通过 CacheSet
类进行初始化和管理,具体实现如下:
class CacheSet:
def __init__(self, lru_size=None):
if lru_size is None or lru_size == 0:
self.init_classic_cache()
else:
self.init_lru_cache(lru_size)
self.all = [self.outputs, self.ui, self.objects]
缓存系统可以根据不同的需求选择不同的实现方式:
Classic Cache(传统缓存)
当没有设置 LRU 缓存大小时,缓存系统会初始化为经典的层级缓存。具体实现如下:
def init_classic_cache(self):
self.outputs = HierarchicalCache(CacheKeySetInputSignature)
self.ui = HierarchicalCache(CacheKeySetInputSignature)
self.objects = HierarchicalCache(CacheKeySetID)
CacheKeySetInputSignature
作为缓存键,用于基于输入签名进行缓存。CacheKeySetID
作为缓存键,主要是为了存储大型对象,如模型数据。LRU Cache(最近最少使用缓存)
如果设置了 LRU 缓存大小,系统会初始化为 LRU 缓存,适用于内存较充足的情况下,以优化性能。
def init_lru_cache(self, cache_size):
self.outputs = LRUCache(CacheKeySetInputSignature, max_size=cache_size)
self.ui = LRUCache(CacheKeySetInputSignature, max_size=cache_size)
self.objects = HierarchicalCache(CacheKeySetID)
HierarchicalCache
,因为模型等大型对象的加载和卸载代价较高,不适合频繁淘汰。为了确保缓存的正确性,缓存系统使用两种不同的缓存键策略:
CacheKeySetInputSignature
CacheKeySetID
无论是传统缓存还是 LRU 缓存,ComfyUI 都提供了缓存清理机制,避免过多的缓存占用内存资源。
经典缓存清理
经典缓存会及时释放不再需要的数据,防止内存溢出。
LRU 缓存清理
LRU 缓存通过一个 generation
计数器和 used_generation
字典记录每个缓存项的使用时间。当缓存超出预设大小时,LRU 算法会移除最久未使用的项。
ComfyUI 的缓存系统支持扩展和调试:
recursive_debug_dump
函数,能够以递归方式输出缓存的调试信息,方便开发者进行问题排查。def recursive_debug_dump(self):
result = {
"outputs": self.outputs.recursive_debug_dump(),
"ui": self.ui.recursive_debug_dump(),
}
return result
ComfyUI 的缓存系统设计非常灵活,它通过 CacheSet
类将不同类型的数据(节点输出、UI 数据、大型对象)分离管理,并支持经典缓存和 LRU 缓存两种策略。依靠层次化的缓存结构和精确的缓存键策略,ComfyUI 能够有效地减少重复计算,并优化内存使用。
在使用 ComfyUI 时,虽然系统本身没有硬性限制节点数量,但仍然存在一些与性能、资源管理和系统稳定性相关的限制。这些限制大多与历史记录、图像分辨率、缓存、内存管理等方面有关。
ComfyUI 会保存工作流中的历史记录,用于回溯和调试。系统中对历史记录的最大保存数量有如下限制:
MAXIMUM_HISTORY_SIZE = 10000
ComfyUI 中对单个图像处理的最大分辨率有限制,防止超大图像导致系统崩溃或内存不足:
MAX_RESOLUTION = 16384
在图像生成过程中,VAE 解码器对瓦片大小进行了限制,以确保解码过程的效率与内存管理:
"tile_size": ("INT", {"default": 512, "min": 128, "max": 4096, "step": 32})
在使用 ComfyUI 时,文件上传的大小受限于系统的配置,特别是通过命令行参数 max_upload_size
来控制:
max_upload_size = round(args.max_upload_size * 1024 * 1024)
max_upload_size
控制,单位为 MB。ComfyUI 使用缓存系统来优化计算效率,减少重复计算。缓存的大小和管理方式可以通过 LRU(最近最少使用)策略进行控制:
def __init__(self, lru_size=None):
if lru_size is None or lru_size == 0:
self.init_classic_cache()
else:
self.init_lru_cache(lru_size)
节点的执行通过队列进行管理,系统按顺序执行节点,避免同时执行过多节点造成性能瓶颈:
在文本处理方面,CLIP 模型的 Tokenizer 有一个最大长度限制:
"model_max_length": 77
虽然 ComfyUI 对节点数量没有明确的硬性限制,但在使用过程中仍然受到一些系统资源和配置的限制。这些限制大多是为了确保系统的稳定性、优化性能以及合理使用内存资源。为了避免因这些限制导致的性能瓶颈或崩溃,建议在使用时遵循以下最佳实践:
通过合理地管理工作流和系统资源,ComfyUI 可以在大型工作流中保持高效运行,避免因资源限制导致的性能问题。
ComfyUI 的模块化节点系统不仅提升了用户的易用性,还通过灵活的扩展机制和高效的缓存管理提供了强大的自定义能力。
它的图形化工作流设计大大降低了 AI 绘图的技术门槛,使得更多用户能够轻松上手,并根据自己的需求定制不同的图像生成方案。
随着社区的不断壮大和功能的持续扩展,ComfyUI 有望成为 AI 绘图领域的重要基础设施之一,为创作与开发者提供无限的可能性。
以上。