Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何使用stable diffusion 生成模特换装的工作流

Answer

Stable Diffusion 是一种强大的生成模型,常用于图像生成和修改任务。利用 Stable Diffusion 实现模特换装可以通过以下步骤和工作流程进行:

工作流程

  1. 准备环境

    • 确保你有合适的硬件配置,特别是具有高性能 GPU 的计算机。
    • 安装必要的软件和依赖项,如 Python、CUDA、PyTorch 等。
  2. 获取模型

    • 下载并安装 Stable Diffusion 模型。
    • 可以从 Hugging Face 的模型库中找到合适的预训练模型,也可以使用自己的数据进行微调。
  3. 数据准备

    • 模特图像:准备高质量的模特图像,确保背景简单以便后续处理。
    • 服装图像:收集或创建各种服装的图像,最好是带有透明背景的 PNG 格式。
  4. 图像预处理

    • 使用图像编辑工具(如 Photoshop 或 GIMP)将模特图像和服装图像裁剪成合适的大小和比例。
    • 如果需要,可以使用 OpenCV 或 PIL 进行自动化预处理。
  5. 定义输入格式

    • 将模特图像和服装图像输入 Stable Diffusion 模型的方式需要提前定义。
    • 典型输入包括模特的基本特征(如位置、姿态)和服装的特征(如颜色、纹理)。
  6. 生成换装图像

    • 使用 Stable Diffusion 模型,输入模特图像和服装图像,生成换装后的模特图像。
    • 可以调整生成参数(如扩散步数、采样方法)以获得最佳结果。
  7. 后处理

    • 对生成的图像进行后处理,如调整亮度、对比度,或者进一步修正细节。
    • 使用图像编辑工具或自动化脚本完成后处理步骤。
  8. 评估和优化

    • 评估生成图像的质量,根据需要进行微调或更改模型参数。
    • 可以使用人工评估或引入评价指标(如 FID、IS 分数)进行量化评估。

示例代码

以下是一个简化的 Python 示例代码,展示如何使用 Stable Diffusion 模型进行图像生成:

import torch
from transformers import StableDiffusionPipeline

# 加载模型
model_id = "CompVis/stable-diffusion-v1-4"
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16).to("cuda")

# 准备输入
prompt = "A model wearing a red dress standing on a white background"

# 生成图像
image = pipe(prompt).images[0]

# 保存图像
image.save("output.png")

工具和资源

  1. Hugging Face

    • 提供预训练的 Stable Diffusion 模型和相关文档。
    • 链接:Hugging Face
  2. OpenCV 和 PIL

    • 用于图像预处理和后处理。
    • 安装:pip install opencv-python pillow
  3. 图像编辑工具

    • 如 Photoshop 或 GIMP,用于手动处理图像。

提示

  • 硬件要求:高性能的 GPU 可以显著加快图像生成速度。
  • 数据质量:高质量的输入图像和精细的预处理可以提高生成图像的效果。
  • 参数调整:根据生成结果不断调整模型参数以获得最佳效果。
  • 模型微调:如果预训练模型不能完全满足需求,可以考虑使用自己的数据集进行微调。

通过这些步骤和工具,您可以使用 Stable Diffusion 模型生成模特换装的图像,创建高质量的视觉效果。

Content generated by AI large model, please carefully verify (powered by aily)

References

教程:超详细的Stable Diffusion教程

假如我现在有一张非常好看的照片,唯独我觉得她的衣服不好看,那我要怎么在不改变其它地方的情况下,给她换上更好看的衣服呢?这里用到的是图生图中局部重绘的功能,导入要调整的照片点击右边的画笔可以调整大小,把人物衣服部分全部涂黑接着输入关键词,先输入质量词(如:高质量,高清画质,8k等)然后描写一下你想要生成什么样的衣服比如我这里输入的就是:粉色汉服,精致的裙子,极具细节的服装负面关键词就直接复制我们前面用的点击生成就可以啦!同样的道理,我们还可以用这个功能来换脸,只是我们涂黑的部分就变成了脸,输入的关键词就是描写脸部、五官的单词。上面的方法用来换衣服只能整体去换,如果我想指定衣服的颜色就只能在关键词里面告诉SD要怎么调整假如现在我想指定服装的颜色,比如:蓝色的衣袖,粉色的衣服,还要有黄色的花纹这时候我们只靠关键词是不行的,出来的照片也不一定准确那我们就可以用到一个新的功能——“涂鸦重绘”导入照片之后,在右边调整画笔大小和颜色,然后就可以自己设计衣服的颜色啦

教程:超详细的Stable Diffusion教程

通过输入关键词,我们已经能够生成一张稍微好看一点的小姐姐的照片了,但是现在我想要生成5678张照片,而且我要出来的照片都是同一张脸,这怎么办呢?这时候我们就要用到Lora模型简单来说,Lora可以固定我们照片的特征:人物特征、动作特征、还有照片风格点击“生成”下面的的第三个按钮,就会弹出新的选项框找到Lora,就会出现我们下载保存到电脑的Lora模型点击我们要用的Lora,就会自动添加到关键词的文本框里面前面那四张照片用到的就是这三个Lora,由此可见,我们的Lora是可以叠加使用的但是建议新手不要使用太多lora,因为这样照片出问题了,你也不知道是哪个Lora有问题另外,Lora之间一样用英文逗号隔开每个Lora后面都有数字,这是用来调整这个Lora的权重的,正常情况下是1,我们一般只会去降低权重,因为增加权重照片可能就会变得奇奇怪怪每个Lora设置的权重不一样,出来的照片就会不一样想要生成一个好看的小姐姐,就要多去尝试不同的权重组合现在问题又来了,我们怎么选择Lora呢?这个问题就要回归到你最开始想要生成什么样的照片

我用Stable Diffusion做电商!

如果你要开淘宝网店,那么在淘宝网页上展示的商品就要漂亮精致,紧紧抓住消费者的心♥!我们可以借助AI作图工具,简单地代替请模特特地搞拍摄的过程啦!这里介绍很简单的利用AI绘画局部逐渐美化女装商品展示图的方法。我是运营网店的女装店主,我没有钱请模特了。。。我可以用stable diffusion来初步制作自己的展示商品!比如我这里要卖这个绿色的淑女裙。(左图)我尝试了直接拿真人穿的衣服抠出来生成,效果很不好。(右图)借鉴了一些视频和方法,我总结了一些我觉得实用性较高,也比较简单的步骤。我觉得局部重绘是比较合适和真实的方法。真人穿衣服拍照。拿到穿衣服的比较真实质感的照片。【如果是身材方面有点难处那就借助美图秀秀or ps吧】ok,比如我(不具有做模特资质的小美女)穿好了我卖的漂亮衣服摆好pose摆几张啦!选好底模!一定要是realistic的,真人照片风格的底模。我这里选的是很经典的majicmixRealistic_v7。换头,根据不同平台换头!比如面向海外市场的,就得换白女头吧。面向中老妇女的,换妈妈头。ok,我这里换白女头,比如我要放在亚马逊上卖。操作就是图生图下的局部重绘选项卡下涂抹自己替换的部分。prompts & parameters

Others are asking
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
stable diffusion是runway和goole联合开的吗
Stable Diffusion(简称 SD)不是由 Runway 和 Google 联合开发的,而是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。 Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型,其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于这两位开发者之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中根据文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高的分辨率。 围绕 Stable Diffusion 等基础模型的兴奋和关注正在产生惊人的估值,但新研究的不断涌现确保新模型将随着新技术的完善而更替。目前,这些模型在法律方面也面临挑战,例如其训练所使用的大量内容数据集通常是通过爬取互联网本身获得的,这可能会引发法律问题。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。在文生图任务中,将一段文本输入到模型中,经过一定迭代次数输出符合文本描述的图片;图生图任务则在输入文本基础上再输入一张图片,模型根据文本提示对输入图片进行重绘。输入的文本信息通过 CLIP Text Encoder 模型编码生成与文本信息对应的 Text Embeddings 特征矩阵,用于控制图像生成。源代码库为 github.com/StabilityAI/stablediffusion ,当前版本为 2.1 稳定版(2022.12.7),其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 Stability AI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion 。
2025-04-15
有stable diffusion的学习教程吗
以下为您提供一些 Stable Diffusion 的学习教程: 1. 超详细的 Stable Diffusion 教程: 介绍了为什么要学习 Stable Diffusion 及其强大之处。 指出 Stable Diffusion 是能根据输入文字生成图片的软件。 强调学习目的是快速入门,而非深入研究原理,通过案例和实际操作帮助上手。 2. 深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎: 包含 Stable Diffusion 系列资源。 零基础深入浅出理解 Stable Diffusion 核心基础原理,如模型工作流程、核心基础原理、训练全过程等。 解析 Stable Diffusion 核心网络结构,包括 SD 模型整体架构、VAE 模型、UNet 模型等。 介绍从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的流程。 列举 Stable Diffusion 经典应用场景。 讲解从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型。 3. 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?:
2025-03-28
我想找一个可以把服装图片用ai的方式直接‘穿’在另一张图片的模特身上
以下是两种可以将服装图片用 AI 的方式“穿”在另一张图片的模特身上的方法: 方法一:使用 ComfyUI GeminiAPI 1. 在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,网址为:https://aistudio.google.com/apikey?hl=zhcn 。 2. 安装相关依赖,根据使用的情况选择手动安装(如果使用 ComfyUI 便携版或自己的 Python 环境)或通过 ComfyUI Manager 安装。 手动安装:安装相关依赖。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,在 Manager 中搜索“Gemini API”,然后点击安装按钮。 方法二:使用【SD】 1. 进行 SAM 模型分割:来到图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 2. 处理可能出现的问题:如蒙版区域较大导致的衔接问题,可以通过降低重绘幅度或添加一个 openpose 来控制人物的身体,得到正确的姿势。 3. 选择合适的重绘功能:除了使用图生图的局部重绘,还可以使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体效果可自行试验选择。
2025-04-09
我有项链白底图,想把他戴在模特上,应该怎么做
要将项链白底图戴在模特上,您可以考虑使用图像编辑软件,如 Adobe Photoshop 或类似的工具。以下是一种可能的操作步骤: 1. 打开图像编辑软件,导入模特图片和项链白底图。 2. 选择项链白底图,使用抠图工具(如魔术棒、套索工具等)将项链从背景中抠出来。 3. 将抠出的项链图层复制或拖曳到模特图片上。 4. 调整项链的大小、位置和角度,使其与模特的姿势和比例相匹配。 5. 可能需要对项链的光影、色调等进行调整,使其与模特图片的整体效果融合。 另外,如果您使用 AI 工具,如 Stable Diffusion 等,以下是一些相关的提示词和参数设置示例: 提示词:breathtaking cinematic photo, masterpiece, best quality, , blonde hair, silver necklace, carrying a white bag, standing, full body, detailed face, big eyes, detailed hands, bracelet 参数设置:Steps:20, Sampler:DPM++2M Karras, CFG scale:7, Seed:3748048683, Size:362x486, Model hash:7c819b6d13, Model:majicmixRealistic_v7, VAE hash:c6a580b13a, VAE:vaeftmse840000emapruned.safetensors, Denoising strength:0.75, Clip skip:2, Mask blur:2, ControlNet 0:"Module:none,Model:control_v11p_sd15_openpose,Weight:1,Resize Mode:Crop and Resize,Low Vram:False,Processor Res:512,Guidance Start:0,Guidance End:1,Pixel Perfect:True,Control Mode:My prompt is more important" 但请注意,使用 AI 工具生成的效果可能需要多次尝试和调整才能达到理想状态。
2025-03-13
请生成一段提示词,用于模特佩戴翡翠珠宝饰品的效果图
以下是一段用于模特佩戴翡翠珠宝饰品的效果图的提示词: breathtaking cinematic photo, masterpiece, best quality, , blonde hair, carrying a light green bag, standing, full body, detailed face, big eyes, detailed hands, wearing a jade jewelry set, fashion photography, studio light,.35mm photograph, film, bokeh, professional, 4k, highly detailed. awardwinning, professional, highly detailed. Negative prompt: ugly, disfigured, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
2025-03-13
comfyui flux 模特换衣服 的新手 教程
以下是关于 ComfyUI Flux 模特换衣服的新手教程: 工作流整体思路: 1. 生成适合服装的模特: 可以抽卡,抽到满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级需注意(1=27×27 最强,14=1×1 最弱)。 2. 进行高精度的换装: 先进行预处理的工作,拼出来 mask。 重绘 mask 区域。 工作流解释: 1. 模特生成: 先生成与衣服匹配的模特,先不关注衣服的相似度,抽出满意的模特。 2. 服装高精度处理: mask 的处理:做两个工作,将模特身上的衣服分割出来,拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装教程: 1. 在扩展面板中使用网址安装 Segment Anything,guthub 地址:https://github.com/continuerevolution/sdwebuisegmentanything 。重启之后安装 SAM 模型。 2. 在 github 上有三个 SAM 模型,由大到小分别是 vit_h,可根据情况选择,大部分选 vit_l 。将下载好的 SAM 模型放在指定路径。 3. 测试 SAM 模型效果,左键点击要保留的部分打上黑点,右键点击不要的部分打上红点,双击不需要的点可移除。 4. 预览分离结果,选择合适的蒙版进行服装替换等操作。 点开“展开蒙版设置”,设定蒙版扩展量,建议 30,然后点击发送到“重绘蒙版”。 5. 换衣步骤:在图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 6. 若出现衔接问题,可通过降低重绘幅度或添加 openpose 控制人物身体姿势。还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,自行试验选择效果好的。
2025-03-04
ai模特换服装生成视频
以下是为您提供的关于 AI 模特换服装生成视频的相关信息: 阿里巴巴开发了 ViViD 视频虚拟试穿技术,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 。 此外,目前在电商平台上已经有很多商品图片,特别是衣服的效果图是由 AI 生成的,AI 模特不需要像人一样辛苦换衣服和摆 Pose 。
2025-02-21
AI模特换装
以下是关于 AI 模特换装的相关信息: 字节发布的新模型 SeedEdit 可对图片进行编辑,包括模特服装颜色的更换。例如输入“Change the blue Nike tracksuit to black Nike tracksuit”,SeedEdit 能迅速响应并完成换装。 在达摩院中可以直接进行 AI 模特虚拟换装的测试,网址为:https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR ,其支持虚拟换装和姿态编辑。 AI 模特换装的应用广泛,在电商平台上,很多衣服的效果图已由 AI 生成,AI 模特无需像真人一样辛苦换装和摆姿势。
2025-02-21
ai换装 或者 ai试衣的网站
以下是一些提供 AI 换装或 AI 试衣功能的网站: AI 试衣 Outfit Anyone:一款虚拟试衣图片生成模型,基于人像照片及服装图生成穿着后的试衣图片。 快手可灵 AI:可灵 AI 平台上线 AI 试衣功能,支持用户上传任意一张服装图、一张模特图,一键生成自然贴合的模特试穿效果。网址:https://klingai.kuaishou.com Xiaohu.AI 日报中提到的处于产品内测阶段的可根据身高、体重、衣服合体要求等个性化选择进行 AI 匹配的虚拟试穿体验。网址:https://x.com/imxiaohu/status/1767155634703929397?s=20
2025-04-08
抠图换装
以下是关于抠图换装的相关内容: 在 SD 中,画蒙版存在一定难度。在 SD 里用鼠标涂画笔工具少且不稳定,精确绘制困难;在 PS 里画蒙版虽简单但流程麻烦,需不停导入导出图片且有人可能不会 PS。 对于大多数人,能在一个软件解决就不开第二个。基于此,介绍 SD 中的抠图神器 Segment Anything,它是基于深度学习算法的图像分割工具,能将图像像素分配到对应区域,实现精准边缘识别,自动检测提高分割效率。 另外,GFPGAN 可进行面部修复,找一张模糊人像,将其参数拉到 1 即可。背景去除需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装重启后有选项框,测试抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数如 Erode size:6、Foreground threshold:143、Background threshold:187 去掉黑边,还能直接生成蒙版。此外,还有专门做服装抠图的模型,方便换装处理,也有专门给动漫抠图的模型。 在 MJ 应用中,提到做一些秀气女性角色时,style expressive/style cute 有一定效果。出图靠量累积,实现基本统一画风后可进一步抠图换底。非人生物的 OC 出图成功率低,如 2 号机器人生成方便,3 号神秘人难做,可先绘制符合部分要求的图像再局部重绘。7 号泰迪熊先生同理,MJ 出的泰迪熊多为全身像,可扩展出身体。
2025-03-03
ai 换装怎么换职业妆照
以下是关于 AI 换装换职业妆照的步骤: 1. 来到图生图中,若图片已进入“上传重绘蒙版”但因 bug 看不见,错误时可手动保存蒙版。 2. 进行换衣步骤,提示词输入“蓝色毛衣”,将蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度设为 1。但由于蒙版区域较大,AI 填写内容时可能出现与之前的手衔接不上的问题。 3. 可通过降低重绘幅度或添加 openpose 来控制人物身体,得到正确姿势。 4. 除图生图的局部重绘外,还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体使用哪个可自行试验选择效果好的。
2025-02-27
换装
以下是关于 AI 换装的相关知识: 【SD】商业换装如此简单,Segment Anything 保姆级教学 如果在使用过程中发生错误,可能需要部署使用环境,傻瓜安装教学模式如下: 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。若安装过 roop 可跳过此步骤。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 此软件最大的作用是帮助快速高效生成蒙版,从而进行人物的换装或者图片中元素的替换。若想获取插件安装包,可添加公众号【白马与少年】,回复【SD】。 ComfyUI 换装服饰一致性 此工作流可用于电商服饰行业、换装、虚拟试穿等场景,在提升效果的同时简化了工作流,没有繁琐的依赖和环境,更多使用了原生的节点。 工作流的整体思路是: 首先,生成适合服装的模特。很多时候换装效果不好、有违和感是因为服装和人物不匹配,所以要先抽卡抽到满意的模特,可加入 Redux 模型,强度不用太高,让提示词生效。 第二步,开始进行高精度的换装。先进行预处理的工作,拼出来 mask,然后重绘 mask 区域。 高精度换装前的准备: 1. 将模特身上的衣服分割出来。 2. 拼接出来对应模特与衣服合并后图片的遮罩。 使用的是 Flux 的 fill 模型,提示词书写的格式为:这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装如此简单,Segment Anything 中 GroundingDINO 模型分割 有时需要更精确的蒙版,如人物的眼睛或身上的配饰等,单靠 SAM 模型很难得到想要的蒙版,此时需要使用 GroundingDINO。 启用 GroundingDINO,AI 会自动下载模型,若无法下载可去云盘直接下载,放到特定文件目录下。在检测提示词中输入“eye”,AI 可根据语义分割自动检测出眼睛部分,并设置好蒙版。还可通过预览箱体得到眼睛编号,选择调整单一眼睛。 例如,只想调整左边眼睛,勾选 1 即可。选择想要修改的蒙版,上传到重绘蒙版当中,添加提示词“闭眼”并生成。还可给人物换背景,加载生成的背景蒙版,大模型选择 revAnimated_v122,正向提示词:简单背景、花、国画、工笔。蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可放入图生图中使用 tile 模型做整体细化,还能给人物衣服添加国风元素。最后可到 PS 使用创成式填充修复头发。
2025-01-14
换装
以下是关于 AI 换装的相关知识: 【SD】商业换装如此简单,Segment Anything 保姆级教学 如果在使用过程中发生错误,可能需要部署使用环境,傻瓜安装教学模式如下: 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。若安装过 roop 可跳过此步骤。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 这个软件最大的作用,就是帮助我们快速高效地生成蒙版,从而进行人物的换装或者图片中元素的替换。若想获取插件安装包,可以添加公众号【白马与少年】,回复【SD】。 ComfyUI 换装服饰一致性 此工作流可用于电商服饰行业、换装、虚拟试穿等场景,在提升效果的同时简化了工作流,没有繁琐的依赖和环境,更多使用了原生的节点。 工作流的整体思路是: 首先,生成适合服装的模特。很多时候换装效果不好、有违和感是因为服装和人物不匹配,所以要先抽卡抽到满意的模特,再进入第二步。 第二步,开始进行高精度的换装。先进行预处理的工作,拼出来 mask,然后重绘 mask 区域。 模特生成:先生成与衣服匹配的模特,这里可以先不关注衣服的相似度,先抽出满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级(1=27×27 最强,14=1×1 最弱)。 服装高精度处理: mask 的处理:高精度换装前要做两个工作,一是将模特身上的衣服分割出来,二是拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里把权重调整为最大,就可以对 mask 位置的服装进行进一步处理,还原原来的服装细节并得到需要的模特。 【SD】商业换装如此简单,Segment Anything 中 GroundingDINO 模型分割 有时需要更精确的蒙版,如人物的眼睛或身上的配饰等,单靠 SAM 模型难以得到想要的蒙版,此时需要使用 GroundingDINO。启用 GroundingDINO,AI 会自动下载模型,若没有魔法可去云盘直接下载,放到特定文件目录下。在检测提示词中输入“eye”,AI 可根据语义分割自动检测出眼睛部分并设置好蒙版,还可通过预览箱体得到眼睛编号,选择调整单一眼睛。选择想要修改的蒙版,上传到重绘蒙版中,添加提示词生成图片。还可给人物换背景,加载生成的背景蒙版,选择大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可放入图生图中细化,再用 PS 创成式填充修复头发。
2025-01-10