ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,它可以被想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。
在 ComfyUI 中,您可以直接训练 LoRA 模型。前几天在 ComfyUI 的 subreddit 上,有人发布了适用于直接从 ComfyUI 创建字幕的 LoRA 字幕定制节点。之后,又创建了一个可以直接从 ComfyUI 训练 LoRA 模型的节点。默认情况下,训练结果直接保存在您的 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。下载相关内容后,解压并放入 custom_nodes 文件夹中,然后安装所需的依赖项。打开命令提示符,输入“pip install -r”,确保后面有一个空格,然后将 requirements_win.txt 文件拖到命令提示符中(如果在 Windows 上;否则选择另一个文件 requirements.txt),按 Enter 键即可安装所有所需的依赖项,使其与 ComfyUI 兼容。请注意,如果为 Comfy 使用了虚拟环境,必须首先激活它。
此外,ComfyUI 还可以自动生成抠图素材。作者制作这个工作流的动机是工作室经常需要一些抠图素材,传统途径要么花钱,要么花时间,还不能定制。近期在 github 上看到一个名为ComfyI2I的项目,其中包含了丰富的蒙版处理节点。于是作者基于此创建了 ComfyUI 工作流,不仅可以用作绿幕素材的抠图,还可以自动生成定制需求的抠图素材,全程只需要几秒。
ComfyUI是一个基于节点流程式的stable diffusion AI绘图工具WebUI,你可以把它想象成集成了stable diffusion功能的substance designer,通过将stable diffusion的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。
(这篇帖子是给ComfyUI用户的…当然,如果你也感兴趣的话^^)嗨,大家!前几天在ComfyUI的subreddit上,我发布了我的LoRA字幕定制节点,非常适用于直接从ComfyUI创建字幕。但字幕只是LoRA训练过程的一半。缺少另一半,我的定制节点会感觉有点孤独。所以我又创建了一个节点,可以直接从ComfyUI训练LoRA模型!默认情况下,它直接保存在你的ComfyUI lora文件夹中。这意味着训练后,你只需刷新(...并选择LoRA)就可以测试它了!这就是进行LoRA训练所需的全部步骤了。制作LoRA从未如此简单下载后,解压并放入custom_nodes文件夹中。然后安装所需的依赖项。如果你不知道如何操作:打开命令提示符,输入以下内容:pip install -r确保后面有一个空格。然后将requirements_win.txt文件拖到命令提示符中(如果你在Windows上;否则,我假设你应该选择另一个文件requirements.txt)。拖动文件将在命令提示符中复制其路径。按Enter键,这将安装所有所需的依赖项,使其与ComfyUI兼容。请注意,如果你为Comfy使用了虚拟环境,必须首先激活它。教程
Hi,大家好,我是金属文。我制作这个工作流的动机是:我的工作室经常需要一些抠图素材,用做海报、推文、短视频等用途传统的搜集抠图素材途径无非是网站下载、付费购买、自己PS。要么花钱,要么花时间,还不能根据自己的需求定制素材近期在github上看到一个名为[ComfyI2I](https://github.com/ManglerFTW/ComfyI2I)的项目,其中包含了丰富的蒙版处理节点于是我基于[ComfyI2I](https://github.com/ManglerFTW/ComfyI2I)创建了这个ComfyUI工作流,不仅可以用作绿幕素材的抠图,还可以自动生成定制需求的抠图素材,全程只需要几秒,太香了!先来看下效果:下面我将分享创建整个工作流的思路以及详细步骤讲解话不多说,开始干货教程