Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

midjourney中如何结合A图片的人物和B图片的动作和内容

Answer

在 Midjourney 中结合 A 图片的人物和 B 图片的动作和内容,可以使用新上线的“Character Reference”(--cref)功能。以下是一些关键方法和示例:

  1. 锚定细节:您可以掌控姿势、表情、情感、服装、道具、场景、动作等细节。例如:“Jo is a young woman with blue curly hair, pink sunglasses, and a colorful scarf around her neck. She waits in line at the bank. --cref https://my.image.host/jo-is-standing.jpg”。
  2. 让 --cref 处理大部分工作:提示无需加强标志性细节,只是“操纵”或“定位”角色。例如:“有人正在银行排队等候。 --cref https://my.image.host/jo-is-standing.jpg”。
  3. 只提供场景:如果您的 cref 图像已包含想要的姿势和其他细节,您可以仅描述环境、周围环境、背景或情境,Midjourney 将努力将角色融入场景中。但可能会出现不连贯的结果,此时可尝试使用更高值的样式化,如“--s 800”。

需要注意的是,此功能在使用 Midjourney 生成的图像人物时效果最佳,不太适用于真实人物或照片。同时,在 Midjourney V6 的 Web Alpha 版本中,您可以通过拖放或粘贴图像到想象栏,并选择相应图标来设置图像为图像提示、风格参考或角色参考。

Content generated by AI large model, please carefully verify (powered by aily)

References

Midjourney 人物一致性已上线

DavidH:Hey @everyone @here we're testing a new"Character Reference"feature today This is similar to the"Style Reference"feature,except instead of matching a reference style it tries to make the character match a"Character Reference"image.How it worksType --cref URL after your prompt with a URL to an image of a characterYou can use --cw to modify reference 'strength' from 100 to 0strength 100(--cw 100)is default and uses the face,hair,and clothesAt strength 0(--cw 0)it'll just focus on face(good for changing outfits / hair etc)What it's meant forThis feature works best when using characters made from Midjourney images.It's not designed for real people / photos(and will likely distort them as regular image prompts do)Cref works similarly to regular image prompts except it 'focuses' on the character traitsThe precision of this technique is limited,it won't copy exact dimples / freckles / or tshirt logos.Cref works for both Niji and normal MJ models and also can be combined with --srefAdvanced FeaturesYou can use more than one URL to blend the information /characters from multiple images like this --cref URL1 URL2(this is similar to multiple image or style prompts)How does it work on the web alpha?Drag or paste an image into the imagine bar,it now has three icons.selecting these sets whether it is an image prompt,a style reference,or a character reference.Shift+select an option to use an image for multiple categoriesRemember,while MJ V6 is in alpha this and other features may change suddenly,but V6 official beta is coming soon.We'd love everyone's thoughts in ⁠ideas-and-features We hope you enjoy this early release and hope it helps you play with building stories and worlds

Midjourney V6 更新角色一致性命令 "--cref "

处理使用--cref进行提示有三种关键方法。您可以锚定细节(姿势、表情、情感、服装、道具、场景、动作),这样您就能掌控它们;您可以轻轻一触,让--cref处理大部分工作;或者您可以只提供场景给角色,让--cref完全处理所有工作。在这三种情况下,提示将与Midjourney能够从您提供的cref图像中识别的任何角色属性混合在一起。您的提示可以用于锚定角色的重要细节,也可以让cref图像自行贡献所有内容。·锚定重要角色细节的提示示例:注意提示如何强调出现在参考图像中的标志性角色属性。它还“操纵”或“定位”角色。例子:Jo is a young woman with blue curly hair,pink sunglasses,and a colorful scarf around her neck.She waits in line at the bank.--cref https://my.image.host/jo-is-standing.jpg翻译:乔(Jo)是一位年轻女子,头发蓝色卷曲,戴着粉红色太阳镜,脖子上系着一条五颜六色的围巾。她正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·不需要重复标志性细节的无干扰提示示例:注意到这个提示没有尝试加强参考图像中的任何标志性细节,它只是“操纵”或“定位”角色。有人正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·如果您的cref图像已经包含您想要的姿势和其他细节,则还有第三种方式可用:您可以仅描述环境、周围环境、背景或情境。Midjourney将努力将角色融入场景中。如果您选择这种方式,可能会看到一些不连贯的结果。如果是这样,请尝试使用更高值的样式化(--s),例如--s 800。

Midjourney V6 更新角色一致性命令 "--cref "

处理使用--cref进行提示有三种关键方法。您可以锚定细节(姿势、表情、情感、服装、道具、场景、动作),这样您就能掌控它们;您可以轻轻一触,让--cref处理大部分工作;或者您可以只提供场景给角色,让--cref完全处理所有工作。在这三种情况下,提示将与Midjourney能够从您提供的cref图像中识别的任何角色属性混合在一起。您的提示可以用于锚定角色的重要细节,也可以让cref图像自行贡献所有内容。·锚定重要角色细节的提示示例:注意提示如何强调出现在参考图像中的标志性角色属性。它还“操纵”或“定位”角色。例子:Jo is a young woman with blue curly hair,pink sunglasses,and a colorful scarf around her neck.She waits in line at the bank.--cref https://my.image.host/jo-is-standing.jpg翻译:乔(Jo)是一位年轻女子,头发蓝色卷曲,戴着粉红色太阳镜,脖子上系着一条五颜六色的围巾。她正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·不需要重复标志性细节的无干扰提示示例:注意到这个提示没有尝试加强参考图像中的任何标志性细节,它只是“操纵”或“定位”角色。有人正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·如果您的cref图像已经包含您想要的姿势和其他细节,则还有第三种方式可用:您可以仅描述环境、周围环境、背景或情境。Midjourney将努力将角色融入场景中。如果您选择这种方式,可能会看到一些不连贯的结果。如果是这样,请尝试使用更高值的样式化(--s),例如--s 800。

Others are asking
可以增强图片清晰的的ai
以下是一些可以增强图片清晰度的 AI 工具: 1. Magnific:https://magnific.ai/ 2. ClipDrop:https://clipdrop.co/imageupscaler 3. Image Upscaler:https://imageupscaler.com/ 4. Krea:https://www.krea.ai/ 更多工具可以查看网站的图像放大工具库:https://www.waytoagi.com/category/17 此外,PMRF 也是一种全新的图像修复算法,它具有以下特点: 擅长处理去噪、超分辨率、着色、盲图像恢复等任务,生成自然逼真的图像。 不仅提高图片清晰度,还确保图片看起来像真实世界中的图像。 能够应对复杂图像退化问题,修复细节丰富的面部图像或多重损坏的图片,效果优质。 详细介绍: 在线体验: 项目地址: 这些 AI 画质增强工具都具有不同的特点和功能,可以根据您的具体需求选择合适的工具进行使用。
2025-04-18
图片提取文字
以下是关于图片提取文字的相关信息: 大模型招投标文件关键数据提取方案:输入模块设计用于处理各种格式的文档输入,包括 PDF、Word、Excel、网页等,转换成可解析的结构化文本。多种文件格式支持,对于图片,可以借助 OCR 工具进行文本提取,如开放平台工具:。网页可以使用网页爬虫工具抓取网页中的文本和表格数据。 谷歌 Gemini 多模态提示词培训课:多模态技术可以从图像中提取文本,使从表情包或文档扫描中提取文本成为可能。还能理解图像或视频中发生的事情,识别物体、场景,甚至情绪。 0 基础手搓 AI 拍立得:实现工作流包括上传输入图片、理解图片信息并提取图片中的文本内容信息、场景提示词优化/图像风格化处理、返回文本/图像结果。零代码版本选择 Coze 平台,主要步骤包括上传图片将本地图片转换为在线 OSS 存储的 URL 以便调用,以及插件封装将图片理解大模型和图片 OCR 封装为工作流插件。
2025-04-15
图片变清晰
以下是关于图片变清晰的相关内容: 使用清影大模型: 输入一张图片和相应提示词,清影大模型可将图片转变为视频画面,也可只输入图片让模型自行发挥想象生成有故事的视频。 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将其变清晰。 提示词要简单清晰,可选择不写 prompt 让模型自行操控图片动起来,也可明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。 常见的 AI 画质增强工具: Magnific:https://magnific.ai/ ClipDrop:https://clipdrop.co/imageupscaler Image Upscaler:https://imageupscaler.com/ Krea:https://www.krea.ai/ 更多工具可查看网站的图像放大工具库:https://www.waytoagi.com/category/17 用 AI 给老照片上色并变清晰: 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。然后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-04-14
怎么让图片动起来
要让图片动起来,可以参考以下几种方法: 1. 使用即梦进行图生视频:只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度根据视频节奏选择,比如选择慢速。 2. 使用 Camera Motion: 上传图片:点击“Add Image”上传图片。 输入提示词:在“Prompt”中输入提示词。 设置运镜方向:选择想要的运镜方向,输入运镜值。 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成想要的任意值。 其它:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 生成视频:点击“create”,生成视频。 3. 对于复杂的图片,比如多人多活动的图: 图片分模块:把长图分多个模块。 抠出背景图:智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。 绿幕处理前景图:将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 前景图动态生成视频:用 AI 视频生成工具写入提示词让图片动起来,比如即梦、海螺、混元等。不停尝试抽卡。 生成视频去掉背景:用剪映把抽卡合格的视频放在去掉内容的背景图片,视频的背景用色度抠图调整去掉。多个视频放在背景图片,一起动即可。
2025-04-12
图片文字转文档
图片文字转文档可以通过以下方式实现: coze 插件中的 OCR 插件: 插件名称:OCR 插件分类:实用工具 API 参数:Image2text,图片的 url 地址必填 用途:包括文档数字化、数据录入、图像检索、自动翻译、文字提取、自动化流程、历史文献数字化等。例如将纸质文档转换为可编辑的电子文档,自动识别表单、票据等中的信息,通过识别图像中的文字进行搜索和分类,识别文字后进行翻译,从图像中提取有用的文字信息,集成到其他系统中实现自动化处理,保护和传承文化遗产。 插件的使用技巧:暂未提及。 调用指令:暂未提及。 PailidoAI 拍立得(开源代码): 逻辑:用户上传图片后,大模型根据所选场景生成相关的文字描述或解说文本。 核心:包括图片内容识别,大模型需要准确识别图片中的物体、场景、文字等信息;高质量文本生成,根据图片生成的文字不仅需要准确,还需符合专业领域的要求,保证文字的逻辑性、清晰性与可读性。 场景应用: 产品文档生成(电商/零售):企业可以利用该功能将商品的图片(如电器、服饰、化妆品等)上传到系统后,自动生成商品的详细描述、规格和卖点总结,提高电商平台和零售商的商品上架效率,减少人工编写文案的工作量。 社交媒体内容生成(品牌营销):企业可使用图片转文本功能,帮助生成社交媒体平台的营销文案。通过上传产品展示图片或品牌活动图片,模型可自动生成具有吸引力的宣传文案,直接用于社交媒体发布,提高营销效率。 法律文件自动生成(法律行业):法律行业可以使用图片转文本技术,自动提取合同、证据材料等图片中的文本信息,生成法律文件摘要,辅助律师快速进行案件分析。
2025-04-11
如何去除图片中的文字内容
以下是去除图片中文字内容的方法: 1. 图像预处理: 图像去噪:使用去噪算法(如高斯滤波、中值滤波)去除图像中的噪声。 图像增强:通过增强算法(如直方图均衡化、对比度增强)提升图像的清晰度和对比度。 2. 图像分割:使用图像分割算法将图片中的文字和背景分离。常用的分割算法包括阈值分割、边缘检测和基于区域的分割方法。 3. 文字检测:在分割后的图像中,使用文字检测算法(如基于深度学习的文本检测模型)识别出文字区域。 4. 文字识别:对检测到的文字区域进行文字识别,将文字内容转换为计算机可处理的文本数据。常用的文字识别技术包括基于深度学习的端到端文本识别模型和传统的 OCR(Optical Character Recognition)技术。 5. 后处理:根据需求进行后处理,如去除残余的噪点、填补文字区域的空白等。 6. 机器学习模型训练(可选):如有足够的数据,可以采用机器学习技术训练模型,通过学习样本中的文字特征来自动去除图片上的文字。 7. 优化算法:对整个处理流程进行优化,提高处理速度和准确度。可以采用并行计算、硬件加速等方法提升算法的效率。 8. 移动端集成:将设计好的算法和模型集成到移动应用程序中,以实现去除图片文字的功能。可以使用移动端开发框架(如 iOS 的 Core ML、Android 的 TensorFlow Lite)来实现模型的部署和调用。 此外,像 Gemini 2.0 Flash 等工具也可以通过自然语言指令来去除图片中的文字,指令如“去掉 XXX”。DALL·E 也能实现去掉图片中的错误文字等操作。
2025-04-11
"如何使用Midjourney"
以下是关于如何使用 Midjourney 的详细介绍: 1. “人物参考”功能: 在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;在强度 0(`cw 0`)时,只会关注面部,适合改变服装、发型等。 2. 喂图: 意义:从第一张起,可反复上传优化图片,来达到自己想要的图片。 过程:上传单张或者一组(4 到 5 张)到 Midjourney 输入框里,有两种方法: 点击输入框前方的加号上传。 鼠标选择图片或一组拖到软件里,回车,点击上传后的图片,在左下角“在浏览器打开链接“打开后复制浏览器上的链接,返回主界面,在输入框里“/imagine:粘贴刚才复制的链接+所描述的关键词。 常见问题:小白新手找不到输入框频道。解决方法是找到 Midjourney 白色图标,点击进去,找带数字结尾的频道,或者在自己社区里添加 Midjourney 机器人。 3. Midjourney V6 更新角色一致性命令“cref”: 官方说明:在提示后键入`cref URL`,其中 URL 是一个角色图像的网址。可以使用`cw`来修改参考的“强度”。 用途:这个功能在使用由 Midjourney 图像制作的角色时效果最佳,不适用于真实的人物/照片。 高级功能:可以使用多个 URL 来混合信息/来自多个图像的角色。 在网页 alpha(测试最初版)上的操作:拖动或粘贴图像到想象栏,有三个图标。选择这些图标设置它是一个图像提示,一个风格参考,还是一个角色参考。按住 Shift 键选择一个选项以将图像用于多个类别。 需注意,虽然 MJ V6 还处于 alpha 测试阶段,但这个和其他功能可能会突然更改,V6 官方 beta 版本即将推出。
2025-03-24
midjourney图怎么 放大
在 Midjourney 中,放大图像的方法如下: 放大(Upscale)将图像尺寸加倍: 精细放大(Subtle):放大图像同时尽量保持原样。 创意放大(Creative):在放大的同时会调整或改变图像中的某些细节。 操作时,您可以点击相应的按钮进行放大。例如,在生成的图像中,点击上面的 U 1 4 即可放大一张图。 另外,使用当前默认模型版本的中途图像的默认尺寸为 1024 x 1024 像素。您可以使用 upscale 工具将文件大小增加到 2048 x 2048 或 4096 x 4096 像素。在网络浏览器中打开 Midjourney 图像,或从 Midjourney.com 下载它们以获得最大文件大小。 需要注意的是,如果没看到放大相关的按钮,可能有以下原因: 1. 该图像已经在 Discord 中生成最满意的一张,不可再放大。 2. 在 More options 文字里没打上相应的对勾。
2025-03-21
Stable Diffusion、MidJourney、DALL·E 这些生成式AI工具有什么区别
Stable Diffusion、Midjourney 和 DALL·E 这三个生成式 AI 工具主要有以下区别: 1. 开源性:Stable Diffusion 是开源的,用户可以在任何高端计算机上运行。 2. 学习曲线:Midjourney 的学习曲线较低,只需键入特定的提示就能得到较好的结果。 3. 图像质量:Midjourney 被认为是 2023 年中期图像质量最好的系统。 4. 应用场景:Stable Diffusion 特别适合将 AI 与来自其他源的图像结合;Adobe Firefly 内置在各种 Adobe 产品中,但在质量方面落后于 DALL·E 和 Midjourney。 5. 训练数据:这些工具都是使用大量的内容数据集进行训练的,例如 Stable Diffusion 是在从网络上抓取的超过 50 亿的图像/标题对上进行训练的。 6. 所属公司:DALL·E 来自 OpenAI。 在使用方面: 1. Stable Diffusion 开始使用需要付出努力,因为要学会正确制作提示,但一旦掌握,能产生很好的结果。 2. DALL·E 已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠,但图像质量比 Midjourney 差。 3. Midjourney 需要 Discord,使用时需键入特定格式的提示。
2025-03-20
midjourney的平替
以下是关于 Midjourney 的相关信息: Midjourney V6 更新角色一致性命令“cref”:您可以仅描述环境、背景等,Midjourney 会努力将角色融入场景中,但可能会有不连贯的结果,此时可尝试更高值的样式化(如s 800)。场景唯一提示示例:在一个空荒地下,乌云密布的暴风雨天空下。cref https://my.image.host/joisstanding.jpg 。注意该命令适用于单一主题、单一角色的图像,若要添加多个角色,需使用平移按钮。将多个角色放置到单个画布上的最佳方法是使用平移功能将新画布与现有画布拼接,每个新画布部分都有自己的 cref。具体操作:1.使用/settings 将 Remix 打开,然后选择;2.选择包含第二个字符的图像,用 U 将其从网格中分离出来;3.寻找蓝色小箭头(⬆️⬇️⬅️➡️),每个都会在现有图像中添加新图像,选择新角色前进方向并输入提示及其cref,缝合新画布,比如描绘两个人的开场提示。 训练 Midjourney 的 prompt:style<4a,4b or 4c>可在 Midjourney 模型版本 4 之间切换。stylize<number>或s<number>参数影响 Midjourney 默认美学风格应用于 Jobs 的强度。还有uplight 和upbeta 等参数。默认值(模型版本 5)包括纵横比、混沌、质量、种子、停止、样式化等,各有相应的默认值和范围。纵横比大于 2:1 为实验性的,可能产生不可预测的结果。不同模型版本和参数具有兼容性。
2025-03-18
midjourney注册不了,有替代的软件吗
以下是一些可以替代 Midjourney 的软件: 1. 扣子+ByteArtist: 网址:https://www.coze.cn/home 优点:不需要?,无收费,可以直接生成。 注册:手机号、抖音号或飞书号。 操作步骤:需要在 coze 的 bot 里面添加绘图插件,时间约 5 分钟。这里需要一点小小的加插件操作,不难,截图一步一步即可做到,而且全程没有科学?️,不需要付费。 2. 悠船: 网址:www.youchuanai.com 新用户注册:在悠船桌面端,输入离谱村专用激活码(296976)即可完成注册。 特点:从成本和小白理解力的角度来说适合先尝试,最近有新注册的免费福利。
2025-03-18
如何登陆midjourney?
以下是登录 Midjourney 的方法: 1. 登录 Midjourney 官网: Midjourney 官网现已向生成 100 张以上图片的用户开放了使用权限。登录 MJ 官网,您将进入到特定页面。左侧为各种页面入口,顶部是生成入口(prompt 框)和搜索框。在社区作品、创作(Create)以及组织(Organize)页面中,您可以随时使用 prompt 框和搜索框,方便查找参考和进行创作,无需频繁切换页面。 您可以通过点击 prompt 框最右侧的图标来设置常用参数的默认值,包括画面比例和个性化模型开关。 在官网上使用图片参考变得简单直观。只需要点击 prompt 框最左侧的图片按钮,或直接拖入图片即可,并且官网会记录所有使用过的图片,方便调用或删除。当鼠标悬停在图片上时,会看到 3 个小图标,从左到右分别是角色参考、风格参考、整图参考,点击相应的图标即可,如需多种参考逻辑可按住 shift 键点选多个图标即可。 创作页面的最大亮点是 prompt 的复用。您可以直接点击画面描述或复制描述词到 prompt 框中,也可以直接点击下方横列菜单里的按钮,将包括参考图在内的完整 prompt 替换当前的 prompt。点击图片则会进入单图调整模式,在 discord 中常用的操作指令都被集中在了右下角的按键中,并且上线了全新的 Editor 编辑器功能。 2. 通过 Discord 登录: 通过 Web 浏览器、移动应用程序或桌面应用程序通过 Discord 访问 Midjourney Bot。在加入 Midjourney Discord 服务器之前,请确保您拥有经过验证的 Discord 帐户。请按照以下指南创建或验证您的 Discord 帐户: 要开始使用 Midjourney 生成图像,您需要订阅计划。 访问。 使用您经过验证的 Discord 帐户登录。 选择适合您需求的订阅计划。请转至了解有关定价和各层可用功能的信息。 要开始与中途机器人交互,请加入中途服务器: 打开 Discord 并找到左侧边栏上的服务器列表。 按+服务器列表底部的按钮。 在弹出窗口中,单击 Join a Server 按钮。 粘贴或输入以下 URL:。
2025-03-18
国外免费的动作模仿AI
以下为您介绍国外免费的动作模仿 AI: 在 SD 中,ControlNet 是一个强大的插件,包含姿态约束类预处理器。可以使用扩展图片的方法将图片发送到图生图进行处理,还能使用 tile 模型细化。若无法找到满足需求的动作图片,可在【扩展】【加载扩展列表】中搜索【posex】插件,或拷贝插件文件夹至指定目录并重启软件。在 ControlNet 界面,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了还能重置镜头和动作。 Viggle 是一个有免费额度的 AI 视频工具,其网址为 http://viggle.ai,discord 免费体验地址为 https://discord.com/invite/viggle 。它支持图片+动作视频转视频、图片+文字动作描述转视频、文字转视频,可完成视频换脸。其功能包括/mix、/animate、/ideate、/character、/stylize 等,官方提供了多种动作提示词可供参考,提示词地址为 https://viggle.ai/prompt 。
2025-03-31
视频生成人物动作不准确
目前在视频生成人物动作方面存在不准确的情况。例如,使用 Midjourney 生成时,过多角色(甚至可能是 2 个)的生成效果不佳,对于拟人角色的需求较难满足。像小龙喷火到小兔子举着礼物盒这样的场景,难以生成满意的效果。在让角色做出较大动作(如转头、掉眼泪、抬手等)或更生动的表情变化时,现有技术有限,还需更先进的技术、丰富的数据和强大的计算能力。 解决策略方面,应尽量规避制作需要大动作表现的视频。若无法避免,可尝试制作只涉及小动作的场景,并通过加入台词和场景描述来补充细节和深度,帮助观众更好地理解场景背景和角色心理,增强表现力,以弥补视觉上的不足。 相关技术如 LivePortrait 可以精确控制眼睛和嘴唇的动作,还能无缝拼接多个肖像,将不同人物特征合并成一个视频,确保过渡自然流畅。其使用了不同于主流扩散方法的隐式关键点框架,在计算效率和可控性之间取得平衡,生成的动画质量优于现有的非扩散和扩散模型方法,在 RTX 4090 GPU 上生成速度为每帧 12.8 毫秒。 工作流与模型地址: https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy https://pan.quark.cn/s/8dfd7ace4f05 内容依技术发展更新,请以文档为准:https://xiaobot.net/post/74238a84d2734b2ca195ed2858b24ffe
2025-03-05
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
生成漫画动作参考图
以下是一些生成漫画动作参考图的方法: 1. 喂参考图:先上传喜欢的参考图,复制其链接。在关键词处填写“图片链接+这张图的关键词”,例如“链接图片.png,a Super cute sports girl,wearing a basketball vest,blueshortsbig watery eyes,clean bright basketball court background,super cute boy IP by pop mart,Bright color,mockup blind box toydisney stylefine luster,3D render,octane render,best quality,8k brightfront lightingFace Shot,fine luster,ultra detail,ar 9:16”。还可以通过修改关键词改变服装颜色等细节。 2. 使用 panels 命令:此命令可生成连续的动作和表情设计,将模型设置改为 niji mode 画动漫角色效果更好。例如“a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with different poses 8K”,也可以使用“continuous running”生成更稳定的连续动作,甚至做成 gif 动画。 3. 利用 character sheet 命令:创建一个角色的多角度以及特写细节,例如“a Super cute sports anime girl,style by Miyazaki Hayao,character sheet,full body,8k”。 4. 使用 emoji、expression sheet:emoji 代表表情包,expression sheet 代表各种表情组合,可用此核心关键词设计出表情包。例如“图片链接.png a Super cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k”。 另外,使用 ControlNet 插件也能生成漫画动作参考图。首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高,对图片的参考越强。可以通过添加关键词的方式给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等。这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。
2025-02-11
我想知道目前最新、效果最好、代码和模型开源的动作捕捉算法,也叫做人体姿态估计,是哪篇文章
目前最新、效果较好且代码和模型开源的人体姿态估计(动作捕捉算法)相关的研究有以下两篇: 1. 【SD】最强手部识别,controlnet 新预处理器 dw openpose 作者:白马少年|公众号:【白马与少年】 发布时间:20230813 20:00 原文网址:https://mp.weixin.qq.com/s/_RiKxWy9MXt4DUJIKH5w 介绍:在 controlnet 中,手部识别一直使用的是 openpose 预处理器,但复杂手势有时无法识别。新的 dw openpose 预处理器能完美解决手部识别问题,将其放入特定目录即可使用。但需说明的是,目前这个 DW Pose 只是更精确的 openpose 预处理器,未对 ControlNet 的 openpose 模型做改动。 2. YOLONAS Pose:一个开源的实时人体姿态估计模型 应用场景:基于骨骼标记为基础,适用于智慧体育等场景,可对训练过程的姿态、数据、状态等进行统计和管理。 技术类型:视频、AI 学习模型 简介:主要功能是识别图片和视频中人的姿势,能快速处理图像并实时返回姿态数据,适应不同场景和设备。 主要特点: 实时性能:旨在提供实时的姿态估计,适用于需要即时反馈的应用。 高精度:利用神经网络架构搜索(NAS)提高姿态估计的准确性。 优化的网络结构:NAS 自动测试不同网络结构,找到最优模型。
2024-12-31
视频导出动作的AI
以下是关于视频导出动作的 AI 相关信息: AI 视频导出方面:普通社交媒体分享选 1080P,需放大选 720P,码率越高越好,可自定义最高 5 万。 Move AI 推出的 Move API 能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据,相关链接为 https://move.ai/api 。
2024-11-05
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
我想做视频二创,比如把视频背景换掉,人物上的衣服换掉,请给我推荐一下相关AI工具
以下是为您推荐的一些用于视频二创,如更换视频背景、人物衣服的相关 AI 工具: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画。Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。 GitHub:https://github.com/novitalabs/AnimateAnyone API:https://novita.ai/playgroundanimateanyone https://x.com/imxiaohu/status/1796191458052944072 2. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。 https://x.com/imxiaohu/status/1796019244678906340 3. 在进行视频二创时,若需要更精确的蒙版,比如人物的眼睛或身上的配饰等,可以使用 segment anything 中的 GroundingDINO。启用 GroundingDINO 后,AI 会自动下载模型,也可在没有魔法的情况下到云盘直接下载,放到指定文件目录下“……sdwebuiakiv4.2\\extensions\\sdwebuisegmentanything\\models\\groundingdino”。在检测提示词中输入相关内容,AI 可根据语义分割自动检测并设置好蒙版。还能通过预览箱体得到部分编号进行单一调整。比如给人物换背景时,加载生成的背景蒙版,选择合适的大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”,若有需要还可进行后续细化和 PS 修复。
2025-04-01
如何让一张卡通人物动起来
要让一张卡通人物动起来,可以参考以下几种方法: 1. 使用 AnimateX :类似 Animate Anyone,输入角色图片和参考动作序列,即可实现角色动画,尤其适配拟人化的角色。 2. 借助 Pika : 账号注册:访问完成免费注册。 素材整理: 视频:准备一段视频,可手机实拍,≥5 秒,生成时会自动截取前 5 秒,横屏/竖屏均可(建议 1080p 以上)。 图片:准备一张主体清晰无遮挡的角色图片,生成的视频中将参考此图片的角色并融入视频。 文案思路:提前构思角色动态关键词(如“奔跑/挥手/发光”),也可让模型自由发挥。 3. 运用即梦进行图生视频:只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。 此外,在制作过程中,还可以像桂大羊的教程那样,通过描绘人物的提示词、上传角色参考图、扣除角色背景以便于进行角色加背景的融合生成时进行垫图操作等方式,提高人物和场景的融合度。
2025-03-30
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
关于图片生成人物衣服的提示词
以下是关于图片生成人物衣服的一些提示词相关内容: 在使用 Segment Anything 时,启用 GroundingDINO 可自动下载模型,将其放到特定文件目录下,在检测提示词中输入相关内容,如“eye”,可自动检测并设置蒙版。通过预览箱体获取编号,可选择调整单一部分。例如,只想调整左边眼睛,勾选 1 即可。还可给人物换背景,如大模型选择 revAnimated_v122,正向提示词为简单背景、花、国画、工笔,蒙版模式选择“重绘非蒙版内容”。将生成的图片放入图生图中,使用 tile 模型能给人物衣服添加国风元素。 设置模型和提示词时,例如大模型为 ghostmix_v20Bakedvae,正向提示词包含人物特征、服饰等描述,负向提示词包含 EasyNegative、badhandsv5neg 等。生成图片后可进行细节微调。 使用 cutoff 插件时,点击启用后按提示词顺序依次填入颜色提示词,中间用逗号分开,能准确显示颜色。如创建双人物构图,设置好人物形象和提示词,先在不开启插件时生成图片可能有颜色污染,开启插件并输入颜色信息后能保证颜色与提示词的关联性。
2025-03-28
我上传一个ai人物形象,有什么AI能驱动他当做数字人来口播,免费的那种
以下为您介绍一些可以免费驱动 AI 人物形象当做数字人进行口播的工具及使用方法: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加您的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 4. 剪映: 优势:作为字节跳动旗下的产品,在抖音平台上被广泛应用,海外版 CapCut 也有出色表现。其拥有六大 AI 功能,能在编辑器里完成脚本生成、语音克隆、数字人口播等环节。 下载地址:剪映 制作流程: 打开剪映,添加一个文本到文字轨道,并修改好需要朗读的文字。 点击朗读,并进行声音克隆,剪映的声音克隆现在只用念一句话就可以完成克隆。 克隆完成后,选择喜欢的数字人形象,并把自己的克隆音色换上去。 一键智能生成字幕,再自行调整文字样式并校准。 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象。 当选择一个数字人形象时,软件会马上播放出该数字人的声音。点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。 左下角会提示渲染何时完成。然后可以点击预览按钮,查看生成的数字人效果。 增加背景图片: 可以直接删除先前导入的文本内容。 为视频增加背景图片,点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传。 点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐。
2025-03-27