Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有没有根据布料照片和模特照片生成衣服上身效果的工具或 comfyUI 工作流

Answer

以下是一些与根据布料照片和模特照片生成衣服上身效果相关的工具和工作流:

  1. 藏师傅的方法:将第二步的提示词和 Logo 图片放到 Comfyui 工作流就行。Lora 需要用到 In-Context LoRA 中的 visual-identity-design,可从以下地址下载:https://huggingface.co/ali-vilab/In-Context-LoRA/tree/main 。工作流下载:https://github.com/op7418/Comfyui-workflow/blob/main/FLUX/Logo%20%E5%91%A8%E8%BE%B9%E7%94%9F%E6%88%90.json 。
  2. 彭青云分享的内容:本地部署 Comfyui 有多种方式,如官方的本地部署包、秋叶整合包和二狗子老师制作的通往 AGI 之路黑猴子流专属包。处理好软件和模型后,打开一键启动,稍等片刻就会进入工作界面。通过正反提示词、文本链接图像,点击右侧队列即可生成图像。
  3. ComfyUI BrushNet:原项目 https://tencentarc.github.io/BrushNet/ ,插件地址 https://github.com/kijai/ComfyUI-BrushNet-Wrapper ,模型下载 https://huggingface.co/Kijai/BrushNet-fp16/tree/main 。第一次运行会自动下载需要的模型,如果是用的 ComfyUI-BrushNet-Wrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main 到 ComfyUI/models/brushnet,也可手动下载放在这个文件夹里面。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。工作流方面,可配合 mj 出底图,在底图不变的基础上,添加文字或者图片内容。还可以使用 G-DinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改。
Content generated by AI large model, please carefully verify (powered by aily)

References

藏师傅教你用 AI 三步制作任意公司的周边图片,不用到处找样机文件

Lora需要用到In-Context LoRA中的visual-identity-design从这里下载:https://huggingface.co/ali-vilab/In-Context-LoRA/tree/main工作流下载:https://github.com/op7418/Comfyui-workflow/blob/main/FLUX/Logo%20%E5%91%A8%E8%BE%B9%E7%94%9F%E6%88%90.json[visual-identity-design.safetensors](https://bytedance.feishu.cn/space/api/box/stream/download/all/?allow_redirect=1)[Logo周边生成.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/MgpXbmBvsow8t7xMm74cLS93nHc?allow_redirect=1)[heading2]一步产品效果图bySTARLINK超同学[content][一步产品效果图.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/KDnvbONJGo3gbrxjfkYcDXrPnPd?allow_redirect=1)[heading2]看看大家的效果[content]表情包迁移?包装设计[heading2]也可以用在换装场景[content]衣服、杯子、卡片这类都一步到位了

彭青云:02小白comfyui学习日记-本地部署,搭建美女工作流,做黑猴子天命人

本地部署有3种方式:官方的本地部署包和秋叶整合包,最后还有二狗子老师,特意制作的通往AGI之路黑猴子流专属包。想做天命人,直接安装二狗子老师制作的专属包即可。(如果先安装其他部署包,再装二狗子老师的包可能会出错,所有安装文件夹也不能中文命名)。秋叶整合包安装简单,常用的插件都已经预装好了,非常方便。以前使用官方软件包时,还需要搭建环境、安装Git、管理器等,即使有教程,也费了不少劲。秋叶整合包省去了很多麻烦,下载后直接打开即可。官方安装包和秋叶整合包,安装好后都需要下载模型。文末有模型下载链接。如果你之前装过WebUI,经过设置后可以共用模型。我之前因为覆盖了空格键而没有成功共用模型,之后就暂时搁置了comfyui的学习。处理好软件和模型后,打开一键启动,稍等片刻就会进入工作界面。我们可以调节界面颜色、语言显示,如果有缺失的节点,还可以通过管理器进行安装。左侧输入模型,选择不同的模型会影响最终图像的风格和质量。那么,我们如何输出自己想要的图像呢?通过正反提示词,文本链接图像,点击右侧队列即可生成图像。

ComfyUI BrushNet

原项目https://tencentarc.github.io/BrushNet/插件地址https://github.com/kijai/ComfyUI-BrushNet-Wrapper模型下载https://huggingface.co/Kijai/BrushNet-fp16/tree/main第一次运行会自动下载需要的模型,如果是用的ComfyUI-BrushNet-Wrapper节点模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main到ComfyUI/models/brushnet,因为环境问题,也可以手动去下载好了放在这个文件夹里面.另外,BrushNet提供了三个模型,个人测试下来,random这个效果比较好[heading1]工作流[content]配合mj出底图,在底图不变的基础上,添加文字或者图片内容另外可以使用G-DinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改[54海报.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/QqKVb2g4OouvZMxkBBbceUrgnsa?allow_redirect=1)

Others are asking
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
我想找一个可以把服装图片用ai的方式直接‘穿’在另一张图片的模特身上
以下是两种可以将服装图片用 AI 的方式“穿”在另一张图片的模特身上的方法: 方法一:使用 ComfyUI GeminiAPI 1. 在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,网址为:https://aistudio.google.com/apikey?hl=zhcn 。 2. 安装相关依赖,根据使用的情况选择手动安装(如果使用 ComfyUI 便携版或自己的 Python 环境)或通过 ComfyUI Manager 安装。 手动安装:安装相关依赖。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,在 Manager 中搜索“Gemini API”,然后点击安装按钮。 方法二:使用【SD】 1. 进行 SAM 模型分割:来到图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 2. 处理可能出现的问题:如蒙版区域较大导致的衔接问题,可以通过降低重绘幅度或添加一个 openpose 来控制人物的身体,得到正确的姿势。 3. 选择合适的重绘功能:除了使用图生图的局部重绘,还可以使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体效果可自行试验选择。
2025-04-09
我有项链白底图,想把他戴在模特上,应该怎么做
要将项链白底图戴在模特上,您可以考虑使用图像编辑软件,如 Adobe Photoshop 或类似的工具。以下是一种可能的操作步骤: 1. 打开图像编辑软件,导入模特图片和项链白底图。 2. 选择项链白底图,使用抠图工具(如魔术棒、套索工具等)将项链从背景中抠出来。 3. 将抠出的项链图层复制或拖曳到模特图片上。 4. 调整项链的大小、位置和角度,使其与模特的姿势和比例相匹配。 5. 可能需要对项链的光影、色调等进行调整,使其与模特图片的整体效果融合。 另外,如果您使用 AI 工具,如 Stable Diffusion 等,以下是一些相关的提示词和参数设置示例: 提示词:breathtaking cinematic photo, masterpiece, best quality, , blonde hair, silver necklace, carrying a white bag, standing, full body, detailed face, big eyes, detailed hands, bracelet 参数设置:Steps:20, Sampler:DPM++2M Karras, CFG scale:7, Seed:3748048683, Size:362x486, Model hash:7c819b6d13, Model:majicmixRealistic_v7, VAE hash:c6a580b13a, VAE:vaeftmse840000emapruned.safetensors, Denoising strength:0.75, Clip skip:2, Mask blur:2, ControlNet 0:"Module:none,Model:control_v11p_sd15_openpose,Weight:1,Resize Mode:Crop and Resize,Low Vram:False,Processor Res:512,Guidance Start:0,Guidance End:1,Pixel Perfect:True,Control Mode:My prompt is more important" 但请注意,使用 AI 工具生成的效果可能需要多次尝试和调整才能达到理想状态。
2025-03-13
请生成一段提示词,用于模特佩戴翡翠珠宝饰品的效果图
以下是一段用于模特佩戴翡翠珠宝饰品的效果图的提示词: breathtaking cinematic photo, masterpiece, best quality, , blonde hair, carrying a light green bag, standing, full body, detailed face, big eyes, detailed hands, wearing a jade jewelry set, fashion photography, studio light,.35mm photograph, film, bokeh, professional, 4k, highly detailed. awardwinning, professional, highly detailed. Negative prompt: ugly, disfigured, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
2025-03-13
comfyui flux 模特换衣服 的新手 教程
以下是关于 ComfyUI Flux 模特换衣服的新手教程: 工作流整体思路: 1. 生成适合服装的模特: 可以抽卡,抽到满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级需注意(1=27×27 最强,14=1×1 最弱)。 2. 进行高精度的换装: 先进行预处理的工作,拼出来 mask。 重绘 mask 区域。 工作流解释: 1. 模特生成: 先生成与衣服匹配的模特,先不关注衣服的相似度,抽出满意的模特。 2. 服装高精度处理: mask 的处理:做两个工作,将模特身上的衣服分割出来,拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装教程: 1. 在扩展面板中使用网址安装 Segment Anything,guthub 地址:https://github.com/continuerevolution/sdwebuisegmentanything 。重启之后安装 SAM 模型。 2. 在 github 上有三个 SAM 模型,由大到小分别是 vit_h,可根据情况选择,大部分选 vit_l 。将下载好的 SAM 模型放在指定路径。 3. 测试 SAM 模型效果,左键点击要保留的部分打上黑点,右键点击不要的部分打上红点,双击不需要的点可移除。 4. 预览分离结果,选择合适的蒙版进行服装替换等操作。 点开“展开蒙版设置”,设定蒙版扩展量,建议 30,然后点击发送到“重绘蒙版”。 5. 换衣步骤:在图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 6. 若出现衔接问题,可通过降低重绘幅度或添加 openpose 控制人物身体姿势。还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,自行试验选择效果好的。
2025-03-04
ai模特换服装生成视频
以下是为您提供的关于 AI 模特换服装生成视频的相关信息: 阿里巴巴开发了 ViViD 视频虚拟试穿技术,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 。 此外,目前在电商平台上已经有很多商品图片,特别是衣服的效果图是由 AI 生成的,AI 模特不需要像人一样辛苦换衣服和摆 Pose 。
2025-02-21
AI模特换装
以下是关于 AI 模特换装的相关信息: 字节发布的新模型 SeedEdit 可对图片进行编辑,包括模特服装颜色的更换。例如输入“Change the blue Nike tracksuit to black Nike tracksuit”,SeedEdit 能迅速响应并完成换装。 在达摩院中可以直接进行 AI 模特虚拟换装的测试,网址为:https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR ,其支持虚拟换装和姿态编辑。 AI 模特换装的应用广泛,在电商平台上,很多衣服的效果图已由 AI 生成,AI 模特无需像真人一样辛苦换装和摆姿势。
2025-02-21