Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Midjourney+sd可以生成服装模特视频么

Answer

Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法:

  1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载[素材]项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。
  2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。

同时,您还可以参考以下视频工具建议:AJ:AI 视频软件汇总 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/ai-tool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。

Content generated by AI large model, please carefully verify (powered by aily)

References

第6期:Video Battle AI 视频挑战-新生

视频工具建议:[AJ:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[heading3]方法0【Dreamina深度图出图+出视频】[content]使用Dreamina图片生成功能https://dreamina.jianying.com/ai-tool/image/generate上传深度图,选择适应画布比例填写描述[heading3]方法1【MJ出图+AI视频软件】[content]方法作者:迦/小龙问路使用Midjourney垫图➕描述出图,再去视频工具中转成视频下载[素材]项里的深度图,打开MJ官网上传深度图Midjourney官网:https://www.midjourney.com/局部重绘有点难度⬇️,放弃最终方式:分开画:先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成。p在一起再丢给MJ各种垫图局部重绘也能无中生有[heading3]方法2【Dall E3出图+AI视频软件】本期作品有点控制不住[content]使用Dall E直接描述出图,再去视频工具中转成视频[heading3]方法3【SD出图+AI视频软件】[content]在SD的controlnet中上传原图,选择深度。文生图就可以生成图片。再把生成好的图放在AI视频工具中进行视频生成dreamina:https://dreamina.jianying.com/ai-tool/video/generate成片:[imageinput_人在走向大型的三角建筑_2024-04-03(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/YlFwb1TC9om8Abxhrrhci9lAnab?allow_redirect=1)

第6期已完成:Video Battle AI 视频挑战第6期-新生

视频工具建议:[AJ:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[heading3]方法0【Dreamina深度图出图+出视频】[content]使用Dreamina图片生成功能https://dreamina.jianying.com/ai-tool/image/generate上传深度图,选择适应画布比例填写描述[heading3]方法1【MJ出图+AI视频软件】[content]方法作者:迦/小龙问路使用Midjourney垫图➕描述出图,再去视频工具中转成视频下载[素材]项里的深度图,打开MJ官网上传深度图Midjourney官网:https://www.midjourney.com/局部重绘有点难度⬇️,放弃最终方式:分开画:先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成。p在一起再丢给MJ各种垫图局部重绘也能无中生有[heading3]方法2【Dall E3出图+AI视频软件】本期作品有点控制不住[content]使用Dall E直接描述出图,再去视频工具中转成视频[heading3]方法3【SD出图+AI视频软件】[content]在SD的controlnet中上传原图,选择深度。文生图就可以生成图片。再把生成好的图放在AI视频工具中进行视频生成dreamina:https://dreamina.jianying.com/ai-tool/video/generate成片:[imageinput_人在走向大型的三角建筑_2024-04-03(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/YlFwb1TC9om8Abxhrrhci9lAnab?allow_redirect=1)

第7期:Video Battle AI 视频挑战-爱

视频工具建议:[AJ:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[heading3]方法0【Dreamina深度图出图+出视频】[content]使用Dreamina图片生成功能https://dreamina.jianying.com/ai-tool/image/generate上传深度图,选择适应画布比例填写描述[heading3]方法1【MJ出图+AI视频软件】[content]方法作者:迦/小龙问路使用Midjourney垫图➕描述出图,再去视频工具中转成视频下载[素材]项里的深度图,打开MJ官网上传深度图Midjourney官网:https://www.midjourney.com/局部重绘有点难度⬇️,放弃最终方式:分开画:先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成。p在一起再丢给MJ各种垫图局部重绘也能无中生有[heading3]方法2【Dall E3出图+AI视频软件】本期作品有点控制不住[content]使用Dall E直接描述出图,再去视频工具中转成视频[heading3]方法3【SD出图+AI视频软件】[content]在SD的controlnet中上传原图,选择深度。文生图就可以生成图片。再把生成好的图放在AI视频工具中进行视频生成dreamina:https://dreamina.jianying.com/ai-tool/video/generate成片:[imageinput_人在走向大型的三角建筑_2024-04-03(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/OBOubAL1iozYIGxD5bscQW1OnFd?allow_redirect=1)

Others are asking
"如何使用Midjourney"
以下是关于如何使用 Midjourney 的详细介绍: 1. “人物参考”功能: 在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;在强度 0(`cw 0`)时,只会关注面部,适合改变服装、发型等。 2. 喂图: 意义:从第一张起,可反复上传优化图片,来达到自己想要的图片。 过程:上传单张或者一组(4 到 5 张)到 Midjourney 输入框里,有两种方法: 点击输入框前方的加号上传。 鼠标选择图片或一组拖到软件里,回车,点击上传后的图片,在左下角“在浏览器打开链接“打开后复制浏览器上的链接,返回主界面,在输入框里“/imagine:粘贴刚才复制的链接+所描述的关键词。 常见问题:小白新手找不到输入框频道。解决方法是找到 Midjourney 白色图标,点击进去,找带数字结尾的频道,或者在自己社区里添加 Midjourney 机器人。 3. Midjourney V6 更新角色一致性命令“cref”: 官方说明:在提示后键入`cref URL`,其中 URL 是一个角色图像的网址。可以使用`cw`来修改参考的“强度”。 用途:这个功能在使用由 Midjourney 图像制作的角色时效果最佳,不适用于真实的人物/照片。 高级功能:可以使用多个 URL 来混合信息/来自多个图像的角色。 在网页 alpha(测试最初版)上的操作:拖动或粘贴图像到想象栏,有三个图标。选择这些图标设置它是一个图像提示,一个风格参考,还是一个角色参考。按住 Shift 键选择一个选项以将图像用于多个类别。 需注意,虽然 MJ V6 还处于 alpha 测试阶段,但这个和其他功能可能会突然更改,V6 官方 beta 版本即将推出。
2025-03-24
midjourney图怎么 放大
在 Midjourney 中,放大图像的方法如下: 放大(Upscale)将图像尺寸加倍: 精细放大(Subtle):放大图像同时尽量保持原样。 创意放大(Creative):在放大的同时会调整或改变图像中的某些细节。 操作时,您可以点击相应的按钮进行放大。例如,在生成的图像中,点击上面的 U 1 4 即可放大一张图。 另外,使用当前默认模型版本的中途图像的默认尺寸为 1024 x 1024 像素。您可以使用 upscale 工具将文件大小增加到 2048 x 2048 或 4096 x 4096 像素。在网络浏览器中打开 Midjourney 图像,或从 Midjourney.com 下载它们以获得最大文件大小。 需要注意的是,如果没看到放大相关的按钮,可能有以下原因: 1. 该图像已经在 Discord 中生成最满意的一张,不可再放大。 2. 在 More options 文字里没打上相应的对勾。
2025-03-21
Stable Diffusion、MidJourney、DALL·E 这些生成式AI工具有什么区别
Stable Diffusion、Midjourney 和 DALL·E 这三个生成式 AI 工具主要有以下区别: 1. 开源性:Stable Diffusion 是开源的,用户可以在任何高端计算机上运行。 2. 学习曲线:Midjourney 的学习曲线较低,只需键入特定的提示就能得到较好的结果。 3. 图像质量:Midjourney 被认为是 2023 年中期图像质量最好的系统。 4. 应用场景:Stable Diffusion 特别适合将 AI 与来自其他源的图像结合;Adobe Firefly 内置在各种 Adobe 产品中,但在质量方面落后于 DALL·E 和 Midjourney。 5. 训练数据:这些工具都是使用大量的内容数据集进行训练的,例如 Stable Diffusion 是在从网络上抓取的超过 50 亿的图像/标题对上进行训练的。 6. 所属公司:DALL·E 来自 OpenAI。 在使用方面: 1. Stable Diffusion 开始使用需要付出努力,因为要学会正确制作提示,但一旦掌握,能产生很好的结果。 2. DALL·E 已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠,但图像质量比 Midjourney 差。 3. Midjourney 需要 Discord,使用时需键入特定格式的提示。
2025-03-20
midjourney的平替
以下是关于 Midjourney 的相关信息: Midjourney V6 更新角色一致性命令“cref”:您可以仅描述环境、背景等,Midjourney 会努力将角色融入场景中,但可能会有不连贯的结果,此时可尝试更高值的样式化(如s 800)。场景唯一提示示例:在一个空荒地下,乌云密布的暴风雨天空下。cref https://my.image.host/joisstanding.jpg 。注意该命令适用于单一主题、单一角色的图像,若要添加多个角色,需使用平移按钮。将多个角色放置到单个画布上的最佳方法是使用平移功能将新画布与现有画布拼接,每个新画布部分都有自己的 cref。具体操作:1.使用/settings 将 Remix 打开,然后选择;2.选择包含第二个字符的图像,用 U 将其从网格中分离出来;3.寻找蓝色小箭头(⬆️⬇️⬅️➡️),每个都会在现有图像中添加新图像,选择新角色前进方向并输入提示及其cref,缝合新画布,比如描绘两个人的开场提示。 训练 Midjourney 的 prompt:style<4a,4b or 4c>可在 Midjourney 模型版本 4 之间切换。stylize<number>或s<number>参数影响 Midjourney 默认美学风格应用于 Jobs 的强度。还有uplight 和upbeta 等参数。默认值(模型版本 5)包括纵横比、混沌、质量、种子、停止、样式化等,各有相应的默认值和范围。纵横比大于 2:1 为实验性的,可能产生不可预测的结果。不同模型版本和参数具有兼容性。
2025-03-18
midjourney注册不了,有替代的软件吗
以下是一些可以替代 Midjourney 的软件: 1. 扣子+ByteArtist: 网址:https://www.coze.cn/home 优点:不需要?,无收费,可以直接生成。 注册:手机号、抖音号或飞书号。 操作步骤:需要在 coze 的 bot 里面添加绘图插件,时间约 5 分钟。这里需要一点小小的加插件操作,不难,截图一步一步即可做到,而且全程没有科学?️,不需要付费。 2. 悠船: 网址:www.youchuanai.com 新用户注册:在悠船桌面端,输入离谱村专用激活码(296976)即可完成注册。 特点:从成本和小白理解力的角度来说适合先尝试,最近有新注册的免费福利。
2025-03-18
如何登陆midjourney?
以下是登录 Midjourney 的方法: 1. 登录 Midjourney 官网: Midjourney 官网现已向生成 100 张以上图片的用户开放了使用权限。登录 MJ 官网,您将进入到特定页面。左侧为各种页面入口,顶部是生成入口(prompt 框)和搜索框。在社区作品、创作(Create)以及组织(Organize)页面中,您可以随时使用 prompt 框和搜索框,方便查找参考和进行创作,无需频繁切换页面。 您可以通过点击 prompt 框最右侧的图标来设置常用参数的默认值,包括画面比例和个性化模型开关。 在官网上使用图片参考变得简单直观。只需要点击 prompt 框最左侧的图片按钮,或直接拖入图片即可,并且官网会记录所有使用过的图片,方便调用或删除。当鼠标悬停在图片上时,会看到 3 个小图标,从左到右分别是角色参考、风格参考、整图参考,点击相应的图标即可,如需多种参考逻辑可按住 shift 键点选多个图标即可。 创作页面的最大亮点是 prompt 的复用。您可以直接点击画面描述或复制描述词到 prompt 框中,也可以直接点击下方横列菜单里的按钮,将包括参考图在内的完整 prompt 替换当前的 prompt。点击图片则会进入单图调整模式,在 discord 中常用的操作指令都被集中在了右下角的按键中,并且上线了全新的 Editor 编辑器功能。 2. 通过 Discord 登录: 通过 Web 浏览器、移动应用程序或桌面应用程序通过 Discord 访问 Midjourney Bot。在加入 Midjourney Discord 服务器之前,请确保您拥有经过验证的 Discord 帐户。请按照以下指南创建或验证您的 Discord 帐户: 要开始使用 Midjourney 生成图像,您需要订阅计划。 访问。 使用您经过验证的 Discord 帐户登录。 选择适合您需求的订阅计划。请转至了解有关定价和各层可用功能的信息。 要开始与中途机器人交互,请加入中途服务器: 打开 Discord 并找到左侧边栏上的服务器列表。 按+服务器列表底部的按钮。 在弹出窗口中,单击 Join a Server 按钮。 粘贴或输入以下 URL:。
2025-03-18
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
请推荐一款,可以快速生成电商服装模特的ai工具
以下为您推荐几款可快速生成电商服装模特的 AI 工具: 1. Stable Diffusion:如果您要开淘宝网店,可借助它初步制作展示商品。比如卖绿色淑女裙,先真人穿衣服拍照,处理好照片,选好 realisitic 真人照片风格的底模,再根据不同平台换头,通过图生图下的局部重绘选项卡涂抹替换部分,并设置好 prompts&parameters。 2. ComfyUI:这个工作流适用于电商服饰行业的换装、虚拟试穿等场景。首先生成适合服装的模特,可抽卡抽到满意的模特,加入 Redux 模型,强度不用太高,让提示词生效。然后进行高精度的换装,先预处理拼出 mask,再重绘 mask 区域。 3. 达摩院:支持虚拟换装、姿态编辑,您可以直接在 https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR 进行测试。
2025-02-02
ai生成服装模特视频
以下是一些与生成服装模特视频相关的 AI 技术和应用: 1. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 2. 生成式人工智能在营销中的应用:Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 此外,还有一些其他相关的 AI 技术,如: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画,Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。相关链接:GitHub:https://github.com/novitalabs/AnimateAnyone ;API:https://novita.ai/playgroundanimateanyone ;https://x.com/imxiaohu/status/1796191458052944072 2. 音频生成方面,有 Udio130 音乐生成模型,能生成 2 分钟的音频,提升曲目连贯性和结构,新增高级控制功能。相关链接:详细:https://xiaohu.ai/p/8738 ;https://x.com/imxiaohu/status/1795999902830629249 3. 代码生成方面,有 Mistral AI 推出的 Codestral 代码生成模型,支持 80 多种编程语言,包括 Python、Java、C 等,能自动完成代码、编写测试,并能填补未完成的代码部分,拥有 32k 上下文窗口,在多项基准测试中表现出色。相关链接:详细:https://mistral.ai/news/codestral/ ;https://x.com/imxiaohu/status/1795987350713192937 4. 音乐演示方面,有 Suno 音乐演示,新视频展示从任何声音创作歌曲。相关链接:https://x.com/imxiaohu/status/1795976717905043467
2025-01-06
ai生成服装模特图的工具
以下是一些可以生成服装模特图的工具: 1. DALLE 2:已被用于广告,如亨氏、雀巢、Stitch Fix 等公司的相关应用。Stitch Fix 正在尝试使用它根据客户对颜色、面料和款式的偏好创建服装可视化。 2. 可以使用万能固定句式来生成服装模特图,如“「主题」+「风格」+「材质」+「元素」+「玄学佐料」”,并通过具体的示例和咒语关键词来实现,如“Chinese dress”。 3. TryOffDiff:能够逆向打造服装图片,将衣服从照片中“摘取”生成标准化服装图,保留图案、褶皱、徽标等精细细节,适用于商品目录制作及电商平台服装展示需求。详细介绍:
2025-01-06
目前最前沿的ai服装模特app
目前较为前沿的 AI 服装模特相关的应用有: Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 InterAlia 可以帮助搭配服装。 在小红书上,有通过 AI 制作服装如 AI 小绿裙实现变现的案例,新手可用 mewxai 或幻火来制作,熟练者可用 sd 或 mj 制作。 此外,还有用 AI 定制萌娃头像等相关应用。
2025-01-06
服装模特拍摄,不同姿势。用什么ai
以下是为您提供的一些可能适用于服装模特拍摄不同姿势的 AI 相关信息: Ready Player Me 服装设计创新:使用 Stable Diffusion 和 ControlNet 生成服装纹理,能根据文本描述自动创建样式,如“蒸汽朋克”风格,适用于 3D 模型,包含真实细节和质感,支持多种风格,快速试验设计理念,训练数据集包含约 1000 个 Ready Player Me 资产。 在 AI 原画设计中,如引导 Nijijourney 5 生成多样化二次元角色设计风格时,可以通过不同的科幻奇幻题材风格,如赛博朋克、蒸汽朋克等作为关键词生成角色设计。还可以尝试不同的服装设计品牌和风格,如山本耀司(Yamamoto Yohji)、川久保玲(Rei Kawakubo),为角色创作提供更广泛的可能性。 RADicalMotionAI 面部捕捉技术:能同时捕捉视频中的身体动作和面部表情,适用于单一视频并转化为动画数据,支持实时发送到 Blender、Unity、Unreal Engine,动画数据可导出为 FBX 格式。
2024-08-25
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14