想在comfyui搭建一个音频节奏生成ai抽象粒子视觉效果的工作流,应该使用哪些模型节点?如何搭建? 在 ComfyUI 搭建音频节奏生成 AI 抽象粒子视觉效果的工作流,您可以参考以下内容:
1. 大模型节点:
您可以根据自己的风格选择不同的大模型,推荐使用:
AWPainting,链接:https://civitai.com/models/84476/awpainting
primemixanything,链接:https://civitai.com/models/75089/primemixanything
xxmix9realistic v40,链接:https://civitai.com/models/47274/xxmix9realistic
2. 关键词节点:
可以使用工作流内的关键词,也可以输入自己的正负面关键词。
3. Lora 节点:
可根据自己风格搭配进行选择,如需多个 Lora 可进行串联。
4. ControlNet 节点:
选用 qrcode_monster V2 版本,相比于 V1 版本 V2 版本识别性更强。下载需要魔法,没有魔法的同学文末领取模型。下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2
5. 采样器节点:
所有生图的老演员了,Step 要选择高步数,35 50 即可。采样器默认的 euler a /dpmpp 2m sde
基础节点介绍:
1. Checkpoint 基础模型(大模型/底模型)节点:
属于预调模型,决定了 AI 图片的主要风格。输出连接:Model 连接 KSampler 采样器的 Model;Clip 连接终止层数的 Clip;Vae 连接 VaeDecode 的 Vae。
2. Clip 终止层数(clip skip)节点:
ComfyUI 的是负数的,webUI 的是正数。输出入点:Clip 连接 Checkpoint 基础模型的 Clip。输出节点:Clip 连接 Prompt 节点的 Clip。正向提示词和负面提示词各一个。
3. Prompt 节点:
输出入点:Clip 连接 Clip 终止层数节点的 Clip。输出节点:正向提示词和负面提示词各连接一个。
4. KSampler 采样器:
输出入点:Model 连接 Checkpoint 基础模型;Positive 连接正向提示词;negative 连接负面提示词;latent_imageL 连接 Empty Latent Image 潜空间图像的 Latent。输出节点:Latent 连接一个 VAE 的 Samples。
5. Empty Latent Image 潜空间图像:
设置出图尺寸,例如 10241024。输出入点:Latent 连接 KSampler 采样器的 Latent。
此外,还有一些根据插件整理的工作流,您可以先随便选择一个“文生图”中的“基础+自定 VAE”。选好之后,点击“替换节点树”。界面中就会出现已经连接好的工作流节点(如果没看到,就按一下 home 键),包括大模型、clip、vae、正反提示词、尺寸,采样器等所有在 webUI 中熟悉的参数,而且全都是中文面板。打开模型节点,可以看到 webUI 中的模型全部都在。这次先不更改参数,点击“运行节点树”,直接生成。此时会提醒您是否启用 ComfyUI,点击确定即可。等待一会,就能在最后一个节点预览图中看到生成的图片。点击这里就可以打开后台,看到出图时间。
2025-03-15