Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

控制模特的姿势

Answer

以下是关于控制模特姿势的方法:

在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式:

  1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。
  2. 利用 ControlNet 功能:
    • 正常填写大模型和关键词生成照片。
    • 鼠标滑到最下面,点击“ControlNet”。
    • 点击空白处上传指定姿势的照片,并点击“启用”。
    • 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。
    • 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。

在 ControlNet 参数配置方面:

  • tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。
  • lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。
  • openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】商业换装如此简单,Segment Anything保姆级教学

10、接下来就是我们的换衣步骤了。提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为1。8、因为蒙版区域比较大,所以AI在填写内容的过程中,有可能会出现这种和之前的手衔接不上的问题。9、我们可以通过降低重绘幅度,或者是添加一个openpose来控制人物的身体,得到正确的姿势。10、除了使用图生图的局部重绘以外,我们还可以使用controlnet的局部重绘功能,控制模式选择“更注重提示词”。至于具体用哪一个,大家自己试验,选效果好的就行。

教程:超详细的Stable Diffusion教程

现在我们已经能够生成美女的照片了可以定制出独一无二的脸,换上更好看的衣服但是我们怎么才能让照片的小姐姐摆出指定的姿势呢?通过关键词去描绘动作,可是出来的照片又不太准确通过图生图去生成,可是人脸又变了那我们就可以用到这个“ControlNet”功能,翻译成中文就是控制网络简单来说就是可以用它控制照片的线条,比如人物的动作、建筑物的线条等比如,我现在想让左边照片的小姐姐摆出右边小姐姐的姿势,得到最右边的一张照片首先,大模型和关键词我们还是正常的填写生成一张我们我们想要的小姐姐的照片接着鼠标滑到最下面,点击“ControlNet”①点击空白的地方,上传我们需要指定的姿势的照片②点击“启用”③在“预处理器”和“模型”里选择“openpose”,这就是用来让计算机识别人物姿势的下一步就点击这个“预览预处理结果”接着原来照片的右边就会出现人物姿势的线条,最后点击生成照片这样我们一张指定姿势的美女小姐姐就生成啦!

小田:视频转绘制作视频过程中不可或缺的一环

这个地方其实和之前赛博机车转绘差不多的思路,因为我们要的是人物不变竟然保持和原图差不多内容,可以存在细微的变化所以我推荐你使用着几个Controlnet大致讲一下为啥要使用这几个cn主要是tile对整体画面的控制,lineart用于提取人物的线条,保证人物整体不跑偏,openpose用于控制人物的姿态和对应的表情和动作。具体的预处理器我这边使用的如下1.tile:这几个预处理器怎么选择对应的中文我就不用说了吧,我一般选择分块+固定颜色+锐化。因为可以保证颜色尽量统一降低后续闪烁2.lineart:采用写实线稿提取如果你要转动漫和二次元推荐你使用第二个动漫线稿提取。但是需要搭配二次元的大模型要不效果不太好3.openpose:这里直接推荐使用DWpose处理器,他对面部和手部的识别远远高于剩下几个预处理器预处理器说完了我们来讲一下对应的参数tile不需要全过程进行引导只需要开始的时候固定一下画面。使用大了会导致画面变化幅度很小维持原图的样子。Lineart:这里权重给到0.6就可以了使用写实的线条控制,主要起的作用是控制整体画面的输出稳定openpose:这个不用说维持默认具体我的参数可以看一下所以不要那些说收费给你398什么参数的【说白了就是信息差】。参数其实是建立在插件的使用上,你插件使用知道了参数的问题你自己多试几次就可以了。剩下的部分就按照之前的Ebs流程走就可以了,这里就不再说了。

Others are asking
我想找一个可以把服装图片用ai的方式直接‘穿’在另一张图片的模特身上
以下是两种可以将服装图片用 AI 的方式“穿”在另一张图片的模特身上的方法: 方法一:使用 ComfyUI GeminiAPI 1. 在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,网址为:https://aistudio.google.com/apikey?hl=zhcn 。 2. 安装相关依赖,根据使用的情况选择手动安装(如果使用 ComfyUI 便携版或自己的 Python 环境)或通过 ComfyUI Manager 安装。 手动安装:安装相关依赖。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,在 Manager 中搜索“Gemini API”,然后点击安装按钮。 方法二:使用【SD】 1. 进行 SAM 模型分割:来到图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 2. 处理可能出现的问题:如蒙版区域较大导致的衔接问题,可以通过降低重绘幅度或添加一个 openpose 来控制人物的身体,得到正确的姿势。 3. 选择合适的重绘功能:除了使用图生图的局部重绘,还可以使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体效果可自行试验选择。
2025-04-09
我有项链白底图,想把他戴在模特上,应该怎么做
要将项链白底图戴在模特上,您可以考虑使用图像编辑软件,如 Adobe Photoshop 或类似的工具。以下是一种可能的操作步骤: 1. 打开图像编辑软件,导入模特图片和项链白底图。 2. 选择项链白底图,使用抠图工具(如魔术棒、套索工具等)将项链从背景中抠出来。 3. 将抠出的项链图层复制或拖曳到模特图片上。 4. 调整项链的大小、位置和角度,使其与模特的姿势和比例相匹配。 5. 可能需要对项链的光影、色调等进行调整,使其与模特图片的整体效果融合。 另外,如果您使用 AI 工具,如 Stable Diffusion 等,以下是一些相关的提示词和参数设置示例: 提示词:breathtaking cinematic photo, masterpiece, best quality, , blonde hair, silver necklace, carrying a white bag, standing, full body, detailed face, big eyes, detailed hands, bracelet 参数设置:Steps:20, Sampler:DPM++2M Karras, CFG scale:7, Seed:3748048683, Size:362x486, Model hash:7c819b6d13, Model:majicmixRealistic_v7, VAE hash:c6a580b13a, VAE:vaeftmse840000emapruned.safetensors, Denoising strength:0.75, Clip skip:2, Mask blur:2, ControlNet 0:"Module:none,Model:control_v11p_sd15_openpose,Weight:1,Resize Mode:Crop and Resize,Low Vram:False,Processor Res:512,Guidance Start:0,Guidance End:1,Pixel Perfect:True,Control Mode:My prompt is more important" 但请注意,使用 AI 工具生成的效果可能需要多次尝试和调整才能达到理想状态。
2025-03-13
请生成一段提示词,用于模特佩戴翡翠珠宝饰品的效果图
以下是一段用于模特佩戴翡翠珠宝饰品的效果图的提示词: breathtaking cinematic photo, masterpiece, best quality, , blonde hair, carrying a light green bag, standing, full body, detailed face, big eyes, detailed hands, wearing a jade jewelry set, fashion photography, studio light,.35mm photograph, film, bokeh, professional, 4k, highly detailed. awardwinning, professional, highly detailed. Negative prompt: ugly, disfigured, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
2025-03-13
comfyui flux 模特换衣服 的新手 教程
以下是关于 ComfyUI Flux 模特换衣服的新手教程: 工作流整体思路: 1. 生成适合服装的模特: 可以抽卡,抽到满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级需注意(1=27×27 最强,14=1×1 最弱)。 2. 进行高精度的换装: 先进行预处理的工作,拼出来 mask。 重绘 mask 区域。 工作流解释: 1. 模特生成: 先生成与衣服匹配的模特,先不关注衣服的相似度,抽出满意的模特。 2. 服装高精度处理: mask 的处理:做两个工作,将模特身上的衣服分割出来,拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装教程: 1. 在扩展面板中使用网址安装 Segment Anything,guthub 地址:https://github.com/continuerevolution/sdwebuisegmentanything 。重启之后安装 SAM 模型。 2. 在 github 上有三个 SAM 模型,由大到小分别是 vit_h,可根据情况选择,大部分选 vit_l 。将下载好的 SAM 模型放在指定路径。 3. 测试 SAM 模型效果,左键点击要保留的部分打上黑点,右键点击不要的部分打上红点,双击不需要的点可移除。 4. 预览分离结果,选择合适的蒙版进行服装替换等操作。 点开“展开蒙版设置”,设定蒙版扩展量,建议 30,然后点击发送到“重绘蒙版”。 5. 换衣步骤:在图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 6. 若出现衔接问题,可通过降低重绘幅度或添加 openpose 控制人物身体姿势。还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,自行试验选择效果好的。
2025-03-04
ai模特换服装生成视频
以下是为您提供的关于 AI 模特换服装生成视频的相关信息: 阿里巴巴开发了 ViViD 视频虚拟试穿技术,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 。 此外,目前在电商平台上已经有很多商品图片,特别是衣服的效果图是由 AI 生成的,AI 模特不需要像人一样辛苦换衣服和摆 Pose 。
2025-02-21
AI模特换装
以下是关于 AI 模特换装的相关信息: 字节发布的新模型 SeedEdit 可对图片进行编辑,包括模特服装颜色的更换。例如输入“Change the blue Nike tracksuit to black Nike tracksuit”,SeedEdit 能迅速响应并完成换装。 在达摩院中可以直接进行 AI 模特虚拟换装的测试,网址为:https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR ,其支持虚拟换装和姿态编辑。 AI 模特换装的应用广泛,在电商平台上,很多衣服的效果图已由 AI 生成,AI 模特无需像真人一样辛苦换装和摆姿势。
2025-02-21
姿势识别
姿势识别是一个涉及多个方面的技术领域,以下为您详细介绍: 视频模型中的姿势识别:包括对不同人物姿态的识别,如站立、坐下、躺卧等。同时也会对不同面部特征进行识别,涵盖不同年龄、性别、种族等。 设计中的姿势识别:涉及手势与肢态的 CV 交互,包含众多相关技术,如手部姿势估计、动态手势识别、手部骨骼点检测、姿态识别等。 在【SD】最强控制插件 ControlNet 中:姿态约束类模型可以通过生成的骨架来规定绘图中人物的动作和表情。其中 openpose 可以直接解析出人物的动作骨架,ControlNet1.1 版本除身体姿态外,还增加了更详细的脸部和手部的预处理器,如 openpose_face 解析姿态和脸部,openpose_faceonly 仅解析脸部,openpose_hand 解析姿态和手部,openpose_full 解析姿态、手部及脸部。但在实际应用中也存在一些限制,如 openpose_faceonly 对卡通二次元角色不起作用,openpose_hand 在手部骨架与身体骨架重合时可能产生问题。
2025-04-09
MJ人物姿势
以下是关于 MJ 人物姿势的相关信息: MewXAI 中的 MJ 绘画创意度和想象力极高,在摄影照片、海报、logo 设计、3D 模型、表情包制作等方面表现出色,并且通过姿态识别能够实现对人物动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势,实现对 AI 画图的完美控制。 Midjourney V6 更新了角色一致性命令“cref”。在 MJ 网页社区里随机选一张图片,点击箭头下方的图片 icon 按钮(图 1),在上方输入栏里选择三个按钮(图 2 红框里第一个就是角色参考,点击一下图标),加上描述词,调整设置(图 3),回车即可实现人物面部不变,场景变化(图 4)。同时,按住 Shift 键选择一个选项可将图像用于多个类别。需要注意的是,虽然 MJ V6 还处于 alpha 测试阶段,此功能及其他功能可能会突然更改,但 V6 官方 beta 版本即将推出。
2024-09-10
服装模特拍摄,不同姿势。用什么ai
以下是为您提供的一些可能适用于服装模特拍摄不同姿势的 AI 相关信息: Ready Player Me 服装设计创新:使用 Stable Diffusion 和 ControlNet 生成服装纹理,能根据文本描述自动创建样式,如“蒸汽朋克”风格,适用于 3D 模型,包含真实细节和质感,支持多种风格,快速试验设计理念,训练数据集包含约 1000 个 Ready Player Me 资产。 在 AI 原画设计中,如引导 Nijijourney 5 生成多样化二次元角色设计风格时,可以通过不同的科幻奇幻题材风格,如赛博朋克、蒸汽朋克等作为关键词生成角色设计。还可以尝试不同的服装设计品牌和风格,如山本耀司(Yamamoto Yohji)、川久保玲(Rei Kawakubo),为角色创作提供更广泛的可能性。 RADicalMotionAI 面部捕捉技术:能同时捕捉视频中的身体动作和面部表情,适用于单一视频并转化为动画数据,支持实时发送到 Blender、Unity、Unreal Engine,动画数据可导出为 FBX 格式。
2024-08-25
自动化控制电脑
以下是关于自动化控制电脑的相关信息: Google 正在开发名为“Project Jarvis”的 AI 项目,预计年底亮相。该项目旨在实现 AI 自动化操作 Chrome 浏览器中的任务,借助升级版 Gemini 2.0。“Jarvis”作为 Chrome 扩展短暂曝光,可作为上网伴侣,帮助用户完成自动化任务,通过截图分析屏幕内容,使用 Gemini 2.0 模型决定执行操作,例如预订餐厅或下单,预计将在 Gemini 2.0 发布后上线,可能在下个月。 目前没有更多关于自动化控制电脑的其他详细内容。
2025-04-10
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
基于PLC的智能仓储控制系统设计
很抱歉,目前知识库中没有关于“基于 PLC 的智能仓储控制系统设计”的相关内容。但一般来说,设计这样一个系统需要考虑以下几个方面: 1. 需求分析:明确仓储系统的功能要求、存储容量、货物类型和操作流程等。 2. PLC 选型:根据系统规模和控制要求选择合适的 PLC 型号。 3. 传感器和执行器配置:选择合适的传感器来检测货物位置、状态等信息,以及确定执行器如电机、气缸等的类型和数量。 4. 控制程序编写:使用相应的编程软件编写 PLC 控制程序,实现货物的入库、出库、存储位置管理等功能。 5. 人机界面设计:提供直观、易于操作的人机界面,方便操作人员监控和控制系统。 6. 系统调试与优化:对设计好的系统进行调试,优化控制参数,确保系统稳定可靠运行。 希望以上这些通用的思路能对您有所帮助,如果您需要更详细准确的信息,建议查阅相关的专业书籍和技术资料。
2025-03-12
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05