Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

相同的参数下,用SD comfyui出图可以和SD webui出图保持图片效果一模一样么?

Answer

理论上,在应用完全相同参数(如 Step、CFG、Seed、prompts)的情况下,SD ComfyUI 出图和 SD WebUI 出图应当能保持图片效果一模一样。但在实际操作中可能会存在一些差异,比如:

  • 提示词的多个条件下,SD 生成的图像可能无法全部满足,这与提示词引导系数有关,该系数关系到出图与文字的相关程度。
  • 不同的模型和配置也可能影响出图效果,例如 SDXL 的大模型分为 base、refiner 以及配套的 VAE 模型,用于调节图片的画面效果和色彩。

需要注意的是,相同参数下要达到完全一致的出图效果并非绝对,还会受到多种因素的综合影响。

Content generated by AI large model, please carefully verify (powered by aily)

References

SD新手:入门图文教程

[title]SD新手:入门图文教程[heading2]三、功能介绍[heading3]文生图最简流程CFG Scale(提示词相关性)图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提示,但它也在一定程度上降低了图像质量。可以用更多的采样步骤来抵消。过高的CFG Scale体现为粗犷的线条和过锐化的图像。一般开到7~11。CFG Scale与采样器之间的关系:生成批次每次生成图像的组数。一次运行生成图像的数量为“批次*批次数量”。每批数量同时生成多少个图像。增加这个值可以提高性能,但也需要更多的显存。大的Batch Size需要消耗巨量显存。若没有超过12G的显存,请保持为1。尺寸指定图像的长宽。出图尺寸太宽时,图中可能会出现多个主体。1024之上的尺寸可能会出现不理想的结果,推荐使用小尺寸分辨率+高清修复(Hires fix)。种子种子决定模型在生成图片时涉及的所有随机性,它初始化了Diffusion算法起点的初始值。理论上,在应用完全相同参数(如Step、CFG、Seed、prompts)的情况下,生产的图片应当完全相同。高清修复通过勾选"Highres.fix"来启用。默认情况下,文生图在高分辨率下会生成非常混沌的图像。如果使用高清修复,会型首先按照指定的尺寸生成一张图片,然后通过放大算法将图片分辨率扩大,以实现高清大图效果。最终尺寸为(原分辨率*缩放系数Upscale by)。

【SD】提示词服从度增强插件,CFG值修复

[title]【SD】提示词服从度增强插件,CFG值修复作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-06-22 20:01原文网址:https://mp.weixin.qq.com/s/bAy1-CydHneam2IDM916XQ在画图的时候,当我们的提示词中有多个条件,sd生成的图像可能无法帮我们全部满足。比如我想要绘制这样一幅图片,关键词是:一个女孩、戴着贝雷帽、绿色夹克、黄色印花裙子,在森林里弹吉他,盲盒风格。使用的大模型是revAnimated,加“blindbox”lora。但是图片生成的时候,我们却发现,夹克变成了黄色,裙子变成了绿色,而且人物的身材比例是接近真实人物的,而不是我们想要的“chibi”盲盒风格。这个情况和我们的一个参数有关,那就是提示词引导系数,它关系到出图与我们文字的相关程度。我们使用“X/Y/Z脚本”来做一个横向对比,测试分别在5/10/15/20/25/30的CFG值下,画面的效果。可以看到,随着CFG值的提高,画面与提示词关联度更高,衣服和裙子的颜色与提示词相符了,但是问题是画面出现了崩坏。那有没有办法可以既增加CFG值,又让画面保持正常呢?答案是可以的,这就需要用到这款插件——dynamic-thresholding安装方式可以在扩展列表中搜索这个插件的名字,或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以看到这个插件了。点击打勾,就可以启用生效。

【SD】向未来而生,关于SDXL你要知道事儿

[title]【SD】向未来而生,关于SDXL你要知道事儿[heading1]#本地部署与在线使用[heading2]1.本地部署SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。

Others are asking
出图是动漫/真人有什么区别和需要注意的点?
动漫出图和真人出图有以下区别和需要注意的点: 版权和法律意识:对于知名动漫角色的使用,要特别注意版权和法律问题。 模型和文件:LORA 在提炼图片特征方面功能强大,其文件通常有几十上百兆,承载的信息量远大于 Embedding,在还原真人物品时,LORA 的细节精度更高。下载的 LORA 需放在特定文件夹,使用时要注意作者使用的大模型,通常配套使用效果最佳,同时还需加入特定触发词保证正常使用。 提示词:设置文生图提示词时,正向提示词和负向提示词的准确设定对出图效果有重要影响。 参数设置:包括迭代步数、采样方法、尺寸等参数的合理设置,会影响出图的质量和效果。
2025-03-16
总结文章内容,生成内容总结,最后输出图片、海报类的内容总结,用什么工具如何实现?
以下是对上述文章内容的总结: 文章主要介绍了三种与总结文章内容、生成相关图片和推送相关内容有关的工作流: 1. Yeadon 的 coze 扣子闪光卡片制作工作流:包括输入原文链接、提取链接内容、生成原文二维码、图片搜索、利用代码节点改变 HTML 展示信息变量、HTML 代码转图片内容、抠图提取卡片主体等步骤。具有页面自动对齐、修改方便、模板复用等优势,有待提升的方面包括自由选择显示内容和添加更多动画效果等。 2. 【拔刀刘】的自动总结公众号内容并定时推送到微信的工作流:包括使用大模型节点批量总结文章内容,选择模型和配置参数,使用代码节点汇总格式化最终输出内容,通过自建插件将格式化好的内容推送到用户微信。 3. 【买买买!?产品买点提炼神器强化版?】的一站式营销内容解决方案工作流:包括卖点提炼模块,通过提问引导用户发掘卖点,或由大模型帮助生成;卖点修改模块,对大模型总结的卖点进行精细化调整;内容展示模块,将生成的内容制作成可保存的图片并输出图片链接。 关于生成图片、海报类内容总结的工具和实现方式,在 Yeadon 的工作流中,通过代码节点将 HTML 代码转成图片内容,在【买买买!?产品买点提炼神器强化版?】的工作流中,利用图像流制作美观的图片模板,并传入相关信息展示在图片中。
2025-03-11
请给出图像智能修改的智能体
以下是一些关于图像智能修改的智能体相关信息: 在一键改图工作流方面:此过程未用大模型,未消耗 token。每次生成结果唯一,无种子概念,无法保存特定结果。调好后可配东北大花袄等背景,修改名字便于排查问题。用户界面可直接拿到返回变量值,返回文本需手动以 Markdown 格式拼接变量。点击立即生成按钮可添加多种事件,表单默认有点击时事件,表单提交时可调用工作流并传入对应参数。表单有 unsubmit、error 和数据改变时等事件,可设置提交时调用工作流,限制上传文件数量,表单提交时可设置禁用态。对左侧图片进行数据绑定,选择工作流和对应颜色,保存刷新查看生成结果。工作流数据绑定要先清空,避免手动输入变量,选工作流时要注意准确。调好第一张图片后复制成三张,根据背景颜色区分,通过连接节点选择对应图片输出。在用户界面不发布也可调试,有预览功能。识别图片特征有误时需在工作流里优化提示词,可考虑使用视频模型。应用界面数据无法直接带到智能体,可尝试左右布局,左边表单右边互动。 在 Coze 工作流创建室内设计师方面:打开 Coze 官网 https://www.coze.cn/home 创建 Bot。图像流分为智能生成、智能编辑、基础编辑三类。Coze 的图像流很像 ComfyUI,但是比 ComfyUI 更普世化,更简单易上手。空间风格化插件有参数,如 image_url 是毛坯房的图片地址;Strength 是提示词强度,影响效果图;Style 是生成效果的风格,如新中式、日式、美式、欧式、法式等。按照构架配置工作流,调试工作流毛坯房测试用例:https://tgi1.jia.com/129/589/29589741.jpg 。开始节点对应配置三项内容,然后点击右上角发布,机器人就可以出图。 在产品买点提炼神器强化版方面:智能体功能实现包括卖点提炼模块,通过提问引导用户发掘产品/服务的卖点,若用户无法准确回答则交由大模型帮助回答并生成可能的卖点。卖点修改模块对大模型总结的卖点进行精细化调整,用户可根据满意度选择跳过、修改补充、让大模型补充或重新生成全部内容。内容展示模块将生成的内容利用图像流制作成可保存的图片,制作美观的图片模板,从工作流中传入产品名称、卖点、买点等信息并在图片中展示,将生成的图片链接通过结束节点输出,并在工作流的消息节点展示。
2025-03-06
人类接收外界信息的感官中,视觉占比高达83%,听觉占11%,其余触觉、嗅觉、味觉合计仅占6%。如何采用用AI画出图示呢
以下为您提供采用 AI 画出关于人类接收外界信息感官占比图示的相关指导: 首先,您可以选择合适的 AI 绘图工具,如 Creately、Whimsical 或 Miro 等。 Creately 是一个在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等。它具有智能绘图功能,能自动连接和排列图形,还有丰富的模板库和预定义形状,支持实时协作。官网:https://creately.com/ Whimsical 是一个专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等。其具有直观的用户界面,易于上手,支持拖放操作,快速绘制和修改图表,提供多种协作功能。官网:https://whimsical.com/ Miro 是一个在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等。它支持无缝协作,支持远程团队实时编辑,有丰富的图表模板和工具,还支持与其他项目管理工具(如 Jira、Trello)集成。官网:https://miro.com/ 使用这些工具绘制图示的一般步骤如下: 1. 选择工具:根据您的具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录该平台。 3. 选择模板:利用平台提供的模板库,选择一个适合您需求的模板。 4. 添加内容:根据您的需求,添加并编辑图形和文字。利用 AI 自动布局功能优化图表布局。 5. 协作和分享:如果需要团队协作,可以邀请团队成员一起编辑。完成后导出并分享图表。
2025-02-28
什么软件可以根据我的要求出图?
以下是一些可以根据您的要求出图的软件: 1. 悠船:从成本和小白理解力的角度来说值得先尝试。新注册有免费的社区福利。下载网址:www.youchuanai.com 。在悠船桌面端进行新用户注册,输入离谱村专用激活码(296976)即可完成注册。 2. Midjourney:出图质量稳定,使用门槛低。普通用户不需要企业也可下载使用。可以登录 Discord(https://discord.com/)网站,打开 Midjourney 服务器出图。通过/imagine 命令输入提示词生成图片。还可以使用 Autojourney 插件批量出图,该插件是电脑浏览器的一个插件,功能强大,可在浏览器拓展程序中下载安装。 3. SD:在细节调节方面理解力较好。 为了达到心中理想的效果,可能需要反复调节和细节调节,不同的图类型、想达到的不同效果和画风,可能需要不同的平台。具体的使用方法群文档里都可以搜。
2025-02-23
能直接输出图片的AI网站
以下是一些能直接输出图片的 AI 网站: 1. Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果超级好。 5. 无界 AI:一款可以在线 AI 生成图片的网站(类似 SD Online 一键出图版),网址为 https://www.wujieai.cc/ (新用户扫码注册可领取积分)。 此外,还有用于鉴别图片是否为 AI 生成的网站,如 ILLUMINARTY(https://app.illuminarty.ai/)。但需注意,AI 鉴别仍存在一些局限性。
2025-02-07
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
comfyUI和webUI的区别
ComfyUI 和 WebUI 的区别主要体现在以下几个方面: ComfyUI: 简介:是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 WebUI 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 WebUI 多(常用的都有),但也有一些针对 ComfyUI 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 插件推荐: 插件安装管理器:https://github.com/ltdrdata/ComfyUIManager SDXL 风格样式:https://github.com/twri/sdxl_prompt_styler ComfyUI 界面汉化:https://github.com/AIGODLIKE/AIGODLIKECOMFYUITRANSLATION 中文提示词输入:https://github.com/AlekPet/ComfyUI_Custom_Nodes_AlekPet 蟒蛇八卦工具箱:https://github.com/pythongosssss/ComfyUICustomScripts 提示词权重调节器:https://github.com/BlenderNeko/ComfyUI_AD WebUI: 采样器与调度器:在 ComfyUI 中,采样器与调度器分开,而在 WebUI 中的采样方法是把两者合并在一起。ComfyUI 通过采样器+调度器组合的方式与 WebUI 中的一致,一般选择 karras 调度器效果较好。 在插件安装方面,WebUI 有较好的用户界面,安装插件后可直观看到并使用;而 ComfyUI 安装插件后可能看不到,需通过节点连接才能感受到其功能。
2025-03-12
comfyUi与webui的区别
ComfyUI 与 WebUI 的区别如下: ComfyUI 简介: 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将流程拆分成节点,实现更精准工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动和出图速度快。 生成自由度更高。 可以和 WebUI 共享环境和模型。 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要清晰逻辑。 生态不如 WebUI 丰富,但也有针对其开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 采样器与调度器: 在 ComfyUI 中,采样器与调度器分开,不同于 WebUI 中将两者合并。ComfyUI 通过采样器+调度器组合的方式与 WebUI 中的一致,选择 karras 调度器一般效果较好。 插件: 插件安装管理器:https://github.com/ltdrdata/ComfyUIManager SDXL 风格样式:https://github.com/twri/sdxl_prompt_styler ComfyUI 界面汉化:https://github.com/AIGODLIKE/AIGODLIKECOMFYUITRANSLATION 中文提示词输入:https://github.com/AlekPet/ComfyUI_Custom_Nodes_AlekPet 蟒蛇八卦工具箱:https://github.com/pythongosssss/ComfyUICustomScripts 提示词权重调节器:https://github.com/BlenderNeko/ComfyUI_AD 在 WebUI 中安装插件能直观看到并使用,因其有良好用户界面;而 ComfyUI 安装插件后可能看不到,需通过节点连接感受其功能,安装方法是将解压好的文件夹放入“E:\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes”目录,然后重新启动。
2025-03-06
RuntimeError: Couldn't clone Stable Diffusion. Command: "git" clone --config core.filemode=false "https://github.com/Stability-AI/stablediffusion.git" "/Users/lichenhui/stable-diffusion-webui/repositories/stable-diffusion-stability-ai" Error code: 12
以下是关于您遇到的“RuntimeError: Couldn't clone Stable Diffusion”错误的分析和解决建议: 这个错误通常表示在克隆 Stable Diffusion 时出现问题。可能的原因包括: 1. 库的某些文件或依赖项已更改或已移除,导致无法找到所需的提交。 2. Git 存储库的状态不正确。 3. 网络连接存在问题。 解决方法如下: 1. 尝试清除本地库并重新克隆 Stable Diffusion,然后再次运行代码。 2. 运行以下命令来检查网络连接:ping files.pythonhosted.org
2025-02-12
我有一张图像,我要如何用stable Diffusion给它添加噪音。我是一个小白,请给出详细的步骤,用webui来操作。
以下是使用 WebUI 为图像添加噪音的详细步骤: 1. 首先,了解 Stable Diffusion 的加噪原理。从数据集中选择一张干净样本,然后用 random 函数生成 0 3 共 4 种强度的噪声,在每次迭代中随机选择一种强度的噪声添加到干净图片上,完成图片的加噪流程。 2. 在训练过程中,对干净样本进行加噪处理,采用多次逐步增加噪声的方式,直至干净样本转变成为纯噪声。 3. 加噪过程中,每次增加的噪声量级可以不同,假设存在 5 种噪声量级,每次都可以选取一种量级的噪声,以增加噪声的多样性。 4. 与图片生成图片的过程相比,在预处理阶段,先把噪声添加到隐空间特征中。通过设置去噪强度(Denoising strength)控制加入噪音的量。如果去噪强度为 0 ,则不添加噪音;如果为 1 ,则添加最大数量的噪声,使潜像成为一个完整的随机张量。若将去噪强度设置为 1 ,就完全相当于文本转图像,因为初始潜像完全是随机的噪声。
2024-11-18
stablediffusion在线webui如何开发
开发 Stable Diffusion 在线 Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。尝试生成图像,观察不同参数对结果的影响。学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。学习如何导入自定义模型、VAE、embedding 等文件。掌握图像管理、任务管理等技巧,提高工作效率。 在完成了依赖库和 repositories 插件的安装后,还需要进行以下配置: 将 Stable Diffusion 模型放到/stablediffusionwebui/models/Stablediffusion/路径下。然后到/stablediffusionwebui/路径下,运行 launch.py 即可。运行完成后,将命令行中出现的输入到本地网页中,即可打开 Stable Diffusion WebUI 可视化界面。进入界面后,在红色框中选择 SD 模型,在黄色框中输入 Prompt 和负向提示词,在绿色框中设置生成的图像分辨率(推荐设置成 768x768),然后点击 Generate 按钮进行 AI 绘画。生成的图像会展示在界面右下角,并保存到/stablediffusionwebui/outputs/txt2imgimages/路径下。 如果选用 Stable Diffusion 作为 AIGC 后台,需要注意: DallE 缺乏室内设计能力,MidJourney 出图效果好但无法基于现实环境重绘,Stable Diffusion 出图成功率较低,但可调用 controlnet 的 MLSD 插件捕捉现实环境线条特征做二次设计。安装 Stable Diffusion WEB UI 后,修改 webuiuser.bat 文件加上 listen 和 API 参数,让 Stable Diffusion 处于网络服务状态。代码如下: @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS=xformers nohalfvae listen api git pull call webui.bat 让 Stable Diffusion 具有 AI 室内设计能力的步骤: 1. 下载室内设计模型(checkpoint 类型),放到 stable diffusion 目录/models/stablediffusion 下面。 2. 安装 controlnet 插件,使用 MLSD 插件,实现空间学习。 通过 API 方式让前端连接到 Stable Diffusion 后台的具体代码在前端开发详细展开,API 参考文档可选读。
2024-11-01
webui可以用FLUX模型吗
WebUI 可以使用 FLUX 模型。以下是相关的下载和使用信息: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 下载 dev 的工作流: 或者官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。 郑敏轩的 Flux 的 controlnet 系列中 TheMisto.ai 的 MistoLine 版: 注意:该 ControlNet 与 Flux1.dev 的 fp16/fp8 以及使用 Flux1.dev 量化的其他模型兼容。 需要节点(可以 git clone 方式下载或通过以下网盘): 夸克网盘:链接:https://pan.quark.cn/s/ad43dd5152a6 。 百度网盘:链接:https://pan.baidu.com/s/1NcOdG4AV68xTup8FvphsYA?pwd=lpvc 提取码:lpvc 。 模型: 夸克网盘:链接:https://pan.quark.cn/s/5551e813db21 。 百度网盘:链接:https://pan.baidu.com/s/1Ntf4MbTCGJ5TYDv6mgvqNQ?pwd=zhfq 提取码:zhfq 。 处理:将模型放到 ComfyUI\\models\\TheMisto_model 文件夹中。 导入官方工作流 。所需要的两个模型:
2024-10-25