Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如果改变照片中人物的表情

Answer

要改变照片中人物的表情,可以通过以下几种方式:

  1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。
  2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。
  3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 --cw(cref 权重)进行处理,尝试将提示与较低的 cref 权重一起使用,如 --cw 60,按照特定步骤操作,还可考虑使用 [Vary Region] 来恢复面部区域。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】脸部修复插件After Detailer

我们选择一个真人脸部模型,同时关掉“面部修复”和“高分辨率修复”,保持图片尺寸为512x512,进行一下效果测试。可以看到,在512分辨率下,人物的脸部已经非常正常了。对比一下,在使用After Detailer之前和之后的区别,脸部细节精致了很多。在脸部修复这一块,还有一个正负提示词的输入框,比如我们输入“伤心、流泪”这样的文字。人物的表情也会进行一些改变。我又尝试了一下输入“带着墨镜”,则没有任何变化,看来这个提示词仅针对表情。接下来我发现,人物的手部还是有一些问题的。我们回到After Detailer打开“第二单元”,和controlnet一样,这个插件也是有多通道的。我们将第二单元的模型换成hand模型试一试。可以看到,左边这只手修复了不少,但是右边好像不如刚才了,看来这个模型还有待改善,目前看来针对脸部的修复是不错的。既然在不使用hand模型的情况下,右边这只手是好的,使用hand模型的情况下,左边这只手是好的,那我们用ps做个蒙版,两只手不就好了嘛。

Magic Brush 使用实例

Magic Brush是一个可以实现精确控制物体运动的功能,灵活应用轨迹绘制,可以实现意想不到的效果。[heading3]波浪形轨迹[content]实现树木摇晃,旗子飘动,点头等场景时,可以绘制波浪形轨迹。|文本|标签|备注|附件||-|-|-|-||衣物飘动|波浪形轨迹||||人物挥手|波浪形轨迹||||马斯克点头|波浪形轨迹|||[heading3]直线形轨迹[content]实现水流流动,背景移动时,可以使用直线形轨迹。|文本|标签|备注|附件||-|-|-|-||背景移动|直线形轨迹||||瀑布水流|直线形轨迹||||云层烟雾|直线形轨迹||||飞船背景|直线形轨迹|||[heading3]表情控制[content]实现表情控制时,可以尝试选中人物的眉毛,眼睛,嘴唇等部位,再通过调节轨迹的方向,实现合理的表情变化。|文本|标签|备注|附件||-|-|-|-||表情控制|表情|||[heading3]移动距离[content]通过轨迹的长短,可以控制移距离|文本|标签|备注|附件||-|-|-|-||汽车|轨迹长短控制距离||||船只移动|轨迹长短控制距离|||

Midjourney V6 更新角色一致性命令 "--cref "

你需要知道或排除的问题。1.我无法给角色一个新的姿势、风格或细节有时,您的角色会抗拒被操纵。首先,确保您写了一个强有力的提示,以建议新的姿势、风格或细节。如果提示似乎很强大,那么问题可能是cref图像支配了提示。这可以通过使用--cw(cref权重)进行处理。--cw N参数可以取N值从1到100,默认值为100。按照以下步骤操作:·尝试将您的提示与较低的cref权重一起使用,比如--cw 60,这将稍微释放cref的控制,允许提示更自由地操纵您的角色。·使用这种方法可能会损害相似性,特别是如果您的cref权重(--cw)必须低于40。·如果失去了相似性,请使用/settings确保您处于[Low Variation/低变异]模式并且Remix设置为打开。现在,创建一个您最喜欢的图像的变体(V)。·您已经开启了Remix,所以现在您可以编辑提示,逐步增加--cw到较高的值,并重复此过程,直到相似性恢复。侧边栏:如果此方法开始擦除姿势,您始终可以考虑使用[Vary Region]来仅使用更高的--cw值恢复面部区域。2.我无法改变我的角色的脸部,特别是脸部是“锁定”的这是正确的。

Others are asking
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11
你是否可以通过照片生成乐高风格人像
可以通过照片生成乐高风格人像。例如,可以使用相关的工具和技术,像在一些图像生成软件中,通过输入照片并设置相关的风格参数,如选择乐高风格,来实现生成。同时,在生成过程中可以像指挥设计师一样,与工具进行反复交流,对不满意的地方进行修改调整。广义上的像素艺术还包括立体像素艺术(类似乐高那种),相关的咒语关键词如“Pixel art”,生成思路可以是一家像素艺术风格的餐厅等。但需要注意的是,某些工具可能无法创建真正的纯净矢量图像的像素艺术,只是将图像“像素化”的像素艺术。
2025-04-11
如何使用AI制作真人表情包?
以下是使用 AI 制作真人表情包的方法: 1. 使用 Gemini 2.0 Flash: 场景:表情包在社交媒体中是不可或缺的表达工具,但制作个性化表情包对许多人来说并不容易,有的工具可以生成根据某一个主体生成不同的表情,但是生成出来的图会多多少少改变原主体。 实用性:用户只需上传一张主体图片(例如一个小女孩的照片),通过简单的自然语言指令(如“让她开心大笑”),Gemini 就会自动生成相应的表情图片。 指令:“生成 XXX + XXX 的表情” 2. 使用 ChatGPT 4o: 输入提示词并加上最初的真人图片,例如:创建图片:一个戴着深蓝色蝴蝶结领结的柴犬,表情参考我上传的图片,3D 风格,毛绒绒质感,不要太逼真,比例为 1:1。如果对生成的第一个表情不满意,可以重新输入指令进行调整,如“让它看起来得意一点”。 一次生成九宫格表情包的方法:先收集很多自己喜欢的表情包,将每组拼图为 9 个,然后将先前做好的真人原图和一张九宫格拼图一起上传到 4o 对话框,输入相应指令,如:创建图片:参考图二的动作和道具制作表情包九宫格,每个图案都替换为图一为主角,保持风格为图一的质感,整整齐齐无留白排列,颜色明亮不偏黄,文字内容仔细核对不要出错。 另外,有的地方需要上传封面图,也可以由 4o 生成,先要求它做一个比例约 3:2 的。如果有个很喜欢的表情,使用九宫格出的效果不好,也可以单个一个个去生成,但比较费时间,且可能会受出图限制等待更久。最后将所有图片下载下来,挑选出需要的表情图片。
2025-04-11
表情包生成
以下是关于表情包生成的相关内容: 使用 Gemini 2.0 Flash 生成表情包: 场景:表情包在社交媒体中不可或缺,但制作个性化表情包对许多人来说有难度,有的工具生成的图会改变原主体。 实用性:用户只需上传一张主体图片(如小女孩的照片),通过简单的自然语言指令(如“让她开心大笑”),Gemini 就能自动生成相应的表情图片。 指令:“生成 XXX + XXX 的表情” 将柴犬表情包生成器网页部署到 Cloudflare: 步骤 1:注册 Cloudflare 账号,点击中间的“免费开始使用”,使用适合的方式登录注册,登录后点击左侧列表的“计算(workers)”,然后再点击“Workers 和 Pages”,找到创建按钮并点击,输入 worker 名称(如 aibiaoqingbao),完成后点击右下角的部署按钮。 步骤 2:部署 Worker,点击“部署”后进入页面,点击编辑代码,进入代码编辑页面。 步骤 3:打开 Trae,再用 Trae 打开柴犬表情包文件夹。 步骤 4:修改代码并提交给 Trae 生成,API key 和 bot id 的替换参考之前的柴犬表情包案例,拼接好代码在 Trae 中发送,会创建 worker.js 文件和 html 文件,在 Trae 里点击 worker.js 能看到所有代码,全选中并复制。 商业教程中利用生成基础图形和局部重绘制作统一风格的插画海报时提到了“表情包”,生成基础图形时要写明确的关键词(如黑色的头发,黄白色的衣服,蓝色的背景等),多生成几套挑选,对不满意的区域进行局部重绘。
2025-03-29
表情生成
表情生成在以下几个方面有相关应用和技术: 1. AI 短剧创作:需要将口型生成、表情生成、肢体生成等多个生成组合在一起。当前口型生成体验较好,而提升表情生成、肢体生成的可控表演效果是关键。例如 SkyReelsV1 利用千万级别、高质量的好莱坞级别数据进行训练微调,可实现影视级人物微表情表演生成,支持 33 种细腻人物表情与 400+种自然动作组合,高度还原真人情感表达。 2. AI 人物形象生成:在人物表情选择方面,可以通过选取合适的表情关键词来表达想要的情感和意境,如高兴的(Smiling、Happy)、生气的(Angry)、哭泣的(Crying)等,不同的咒语可能会产生不同的生成结果。 3. 利用自己的照片制作表情包:可以使用 GPT 4 的能力,通过自然语言沟通和上传照片来生成表情包,生成过程中可能会出现文字错误、风格不一致等情况,可以进行局部编辑和多轮沟通修改。
2025-03-29
ai制作幽默表情包系列的工作流,用dify或make实现的全流程
以下是使用 Dify 或 Make 实现 AI 制作幽默表情包系列的全流程: 1. 素材准备 平面设计稿:确定表情包的基本设计和角色形象。 2. 制作流程 转 3D:将平面设计稿转换为 3D 形式,增加立体感和丰富度。 AI 生成场景:利用相关工具生成适合的场景。 AI 图生视频:将生成的图片转换为视频。 剪辑转 gif:对视频进行剪辑,并转换为 gif 格式。 压缩:使用图像压缩工具,如 https://imageresizer.com/zh/%E5%9B%BE%E5%83%8F%E5%8E%8B%E7%BC%A9 ,对 gif 进行压缩,以满足上传要求。 上传微信表情平台审核:完成压缩后,上传至微信表情平台进行审核。 相关工具: 即梦:https://jimeng.jianying.com/aitool/image/generate Recraft: https://www.recraft.ai/
2025-03-11
表情包生成网站或工具
以下为您推荐一些表情包生成的网站或工具及相关使用方法: 1. 即梦(https://jimeng.jianying.com/):可以生成类似的猫咪表情包,您可以输入相关提示词,生成图片后用 PPT 加文字制作成可发布的表情包。 具体过程:如生成“我觉得我又行了”的相关猫咪表情包。 2. 可灵 AI 1.6 图生视频工具:用于让生成的场景动起来。 提示词示例:可爱的拟人小鹿拿着红包对你说谢谢老板,非常开心忍不住跳舞,背后下着红包雨。 此外,在生成统一角色的插画海报时,也可以参考以下步骤: 1. 生成基础的第一套图形:写明确的关键词,如“Flat illustration design,a man,black hair,half body,face front,front view,sitting at the table,working,using computer or holding mobile phone,yellow and white clothes,blue solid color background,emoticon pack 6 emoji tables,red and white clothes,multiple poses and expressions,anthropomorphic style,different emotions,multiple poses and expressions,8kar 3:4niji 5style expressives 180”,多生成几套并挑选满意的。 2. 局部重绘不满意的区域:从得到的结果里挑选合适的放大,用 PS 抠出来。
2025-02-22
如果想用AI创作表情包,推荐用什么AI大模型
如果您想用 AI 创作表情包,以下是一些推荐的 AI 大模型及相关平台: 1. MewXAI:这是一款操作简单的 AI 绘画创作平台。其功能包括 MX 绘画,拥有众多超火模型和上百种风格,支持文生图、图生图;MX Cute 是自研的可爱风动漫大模型;MJ 绘画在表情包制作等方面表现出色;还有边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等多种功能。访问地址:https://www.mewxai.cn/ 2. 在开发 AI Share Card 插件的过程中,选用的是 GLM4flash 模型。它具有较长的上下文窗口、响应速度快、并发支持高、免费或价格较低等优点。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-21
我想做视频二创,比如把视频背景换掉,人物上的衣服换掉,请给我推荐一下相关AI工具
以下是为您推荐的一些用于视频二创,如更换视频背景、人物衣服的相关 AI 工具: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画。Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。 GitHub:https://github.com/novitalabs/AnimateAnyone API:https://novita.ai/playgroundanimateanyone https://x.com/imxiaohu/status/1796191458052944072 2. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。 https://x.com/imxiaohu/status/1796019244678906340 3. 在进行视频二创时,若需要更精确的蒙版,比如人物的眼睛或身上的配饰等,可以使用 segment anything 中的 GroundingDINO。启用 GroundingDINO 后,AI 会自动下载模型,也可在没有魔法的情况下到云盘直接下载,放到指定文件目录下“……sdwebuiakiv4.2\\extensions\\sdwebuisegmentanything\\models\\groundingdino”。在检测提示词中输入相关内容,AI 可根据语义分割自动检测并设置好蒙版。还能通过预览箱体得到部分编号进行单一调整。比如给人物换背景时,加载生成的背景蒙版,选择合适的大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”,若有需要还可进行后续细化和 PS 修复。
2025-04-01
如何让一张卡通人物动起来
要让一张卡通人物动起来,可以参考以下几种方法: 1. 使用 AnimateX :类似 Animate Anyone,输入角色图片和参考动作序列,即可实现角色动画,尤其适配拟人化的角色。 2. 借助 Pika : 账号注册:访问完成免费注册。 素材整理: 视频:准备一段视频,可手机实拍,≥5 秒,生成时会自动截取前 5 秒,横屏/竖屏均可(建议 1080p 以上)。 图片:准备一张主体清晰无遮挡的角色图片,生成的视频中将参考此图片的角色并融入视频。 文案思路:提前构思角色动态关键词(如“奔跑/挥手/发光”),也可让模型自由发挥。 3. 运用即梦进行图生视频:只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。 此外,在制作过程中,还可以像桂大羊的教程那样,通过描绘人物的提示词、上传角色参考图、扣除角色背景以便于进行角色加背景的融合生成时进行垫图操作等方式,提高人物和场景的融合度。
2025-03-30
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
关于图片生成人物衣服的提示词
以下是关于图片生成人物衣服的一些提示词相关内容: 在使用 Segment Anything 时,启用 GroundingDINO 可自动下载模型,将其放到特定文件目录下,在检测提示词中输入相关内容,如“eye”,可自动检测并设置蒙版。通过预览箱体获取编号,可选择调整单一部分。例如,只想调整左边眼睛,勾选 1 即可。还可给人物换背景,如大模型选择 revAnimated_v122,正向提示词为简单背景、花、国画、工笔,蒙版模式选择“重绘非蒙版内容”。将生成的图片放入图生图中,使用 tile 模型能给人物衣服添加国风元素。 设置模型和提示词时,例如大模型为 ghostmix_v20Bakedvae,正向提示词包含人物特征、服饰等描述,负向提示词包含 EasyNegative、badhandsv5neg 等。生成图片后可进行细节微调。 使用 cutoff 插件时,点击启用后按提示词顺序依次填入颜色提示词,中间用逗号分开,能准确显示颜色。如创建双人物构图,设置好人物形象和提示词,先在不开启插件时生成图片可能有颜色污染,开启插件并输入颜色信息后能保证颜色与提示词的关联性。
2025-03-28
我上传一个ai人物形象,有什么AI能驱动他当做数字人来口播,免费的那种
以下为您介绍一些可以免费驱动 AI 人物形象当做数字人进行口播的工具及使用方法: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加您的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 4. 剪映: 优势:作为字节跳动旗下的产品,在抖音平台上被广泛应用,海外版 CapCut 也有出色表现。其拥有六大 AI 功能,能在编辑器里完成脚本生成、语音克隆、数字人口播等环节。 下载地址:剪映 制作流程: 打开剪映,添加一个文本到文字轨道,并修改好需要朗读的文字。 点击朗读,并进行声音克隆,剪映的声音克隆现在只用念一句话就可以完成克隆。 克隆完成后,选择喜欢的数字人形象,并把自己的克隆音色换上去。 一键智能生成字幕,再自行调整文字样式并校准。 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象。 当选择一个数字人形象时,软件会马上播放出该数字人的声音。点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。 左下角会提示渲染何时完成。然后可以点击预览按钮,查看生成的数字人效果。 增加背景图片: 可以直接删除先前导入的文本内容。 为视频增加背景图片,点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传。 点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐。
2025-03-27
如何用AI生成饰品商业用的人物海报?
以下是用 AI 生成饰品商业用人物海报的步骤: 1. 商业教程:统一 2 个角色的插画海报 生成女性:获取男生那张的 seed,加在关键词后面,生成女生。挑选相似的。也可以先 U3 后继续通过变化的变化 2 个按钮挑选合适的。 局部重绘:局部重绘不满意的表情,比如希望女生开心点,添加“happy”。 PS 处理:把需要的角色扣在一起,PS 把颜色调整一致(如果有 PS AI 版可以修修手)。 小素材生成:其他过程稿。 2. 【SD】商业换装如此简单,Segment Anything 保姆级教学 启用 GroundingDINO 模型分割:当需要更精确的蒙版,如人物的眼睛或身上的配饰等,启用 GroundingDINO,AI 会自动下载模型,可通过魔法或云盘下载,放到指定文件目录下。在检测提示词中输入相关内容,如“eye”,可自动检测并设置蒙版,还能通过预览箱体得到编号选择调整单一部分。 更换背景:加载生成的背景蒙版,选择大模型和正向提示词,设置蒙版模式,生成图片。若头发部分没抠好,可放入图生图中使用 tile 模型做整体细化,再到 PS 用创成式填充修复头发。 3. Midjourney 商业实战案例 娇兰香水产品摄影图:输入关键词“Guerlain Perfume,plant flowers,top light.cean natural backaround with water,saturation color scheme.The productis bright,Motled shading,studo lighfing,contrast high precision,Fine gloss,Centered composition,Photography,HD4Krealism–q 2–v 5–s 750–ar 9:16”,多生成几组图片,挑选不错的在 PS 或其他后期软件中修改调整并进行文字排版。 美女模特摄影海报:输入关键词“On a sunny summer day,a beautiful and innocent18yearold Korean gir smiles brightly playing withwater in the stream–ar 9:16–v 5”,生成图片后制作海报。 江南清明节海报:输入关键词“jiangnan,hangzhou,summer scenery,Green trees,small houses,brook2,Ultrahigh definition picture,8K–ar 2:3–v 4”。
2025-03-26
扣子如何改变回复的语言风格
要改变回复的语言风格,可以参考以下方法: 1. 对于风格类的 Bot,提示词中的 Fewshot 对输出风格影响较大,可先找预期相关人的风格示例并修改。 2. 在 Examples 里使用特定开头的词,如“Fword”,开头字符会显著影响输出内容。 3. 加星号的部分代表加粗,根据自注意力机制可提升提示词中的关键词效果。 4. 能力方面可使用自带的 Bing 搜索和图片识别,根据需求选择,如避免 Webpilot 以免语气变温和。 5. 可根据需求决定是否加入绘画功能。 6. 防护词可参考,但没有完美的防御提示词。 7. 回复风格可来自自己的群聊机器人的风格嫁接。 8. 最后加入一些小 Tips 进一步提升个性化效果。 在场景方面,可以问 Bot 对内容的看法,或让其帮忙分析事情以获得更接地气的表述。 另外,编写提示时: 简单任务场景: 设定人物,描述 Bot 所扮演的角色或职责、回复风格。 描述功能和工作流程,约定 Bot 在不同场景下的回答方式,强调调用工具以保证回复准确性,也可为 Bot 提供回复格式示例。 指示 Bot 在指定范围内回答。 复杂任务场景:推荐使用结构化格式编写提示,扣子支持将 Bot 的提示自动优化成结构化内容,可直接使用或修改。
2025-04-09
罗列具体的AI模型产品和具体的AI技术创新点,并总结AI技术的发展趋势,并说明这些发展趋势为用户的交互体验带来了什么样的改变?按照时间线将以上内容梳理出来
以下是按照您的需求梳理的内容: 时间线 早期: 从图灵测试、早期的图灵机器人和 ELISA 开始,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统。 近年来: OpenAI 发布 ChatGPT 模型,引发用户习惯从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 大模型创新方面,架构优化加速涌现,融合迭代成为趋势。Scaling Law 泛化,推理能力成为关键,倒逼计算和数据变革。AGI 探索中,视频生成点燃世界模型,空间智能统一虚拟和现实。 在应用方面,AI 在文科白领的个人助理、呼叫中心、文本处理和教育等领域表现出色,能完成 80%到 90%的工作;对于工科白领,特别是程序员,能简化代码检索和调整;在蓝领领域,自动驾驶取得显著进展。但在复杂任务方面仍有改进空间。 第一轮洗牌结束,聚焦 20 赛道 5 大场景,多领域竞速中运营大于技术,AI 助手成为竞争重点。AI+X 赋能类产品发展迅速,原生 AI 爆款难求。多模态上马,Agent 席卷一切,高度个性化呼之欲出。 人工智能发展经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。大模型由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,数据质量对生成理想的大模型至关重要。 未来: 李沐预测技术发展可能催生出革命性的应用形态,但 AI 离真正变革世界还有一段距离。 预计 AI 在蓝领工作的初步应用至少需要 5 年时间。 AI 技术创新点: 大模型创新:架构优化加速涌现,融合迭代大势所趋。 Scaling Law 泛化:推理能力成皇冠明珠,倒逼计算和数据变革。 AGI 探索:视频生成点燃世界模型,空间智能统⼀虚拟和现实。 AI 技术的发展趋势: 模型架构不断优化和融合。 更加注重推理能力的提升。 探索 AGI 领域,实现虚拟和现实的统一。 应用格局不断洗牌,聚焦特定赛道和场景。 多模态和 Agent 技术的广泛应用。 对用户交互体验的改变: 用户习惯从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 AI 应用为用户提供辅助,在多个领域帮助完成任务。
2025-03-31
AI技术发展时间线,罗列具体的AI模型产品和具体的AI技术创新点,并总结AI技术的发展趋势,并说明这些发展趋势为用户的交互体验带来了什么样的改变?
以下是关于 AI 技术发展的相关内容: AI 技术发展时间线: 从图灵测试、早期的图灵机器人和 ELISA,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统,再到 OpenAI 发布 ChatGPT 模型,经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。 具体的 AI 模型产品: ChatGPT 改变了用户习惯,从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 具体的 AI 技术创新点: 大模型创新方面,架构优化加速涌现,融合迭代成为趋势。 Scaling Law 泛化,推理能力成为皇冠明珠,倒逼计算和数据变革。 AGI 探索中,视频生成点燃世界模型,空间智能统一虚拟和现实。 AI 技术的发展趋势: 大模型创新:架构优化加速涌现,融合迭代大势所趋。 应用格局:第一轮洗牌结束,聚焦 20 赛道 5 大场景。 应用竞争:多领域竞速运营大于技术,AI 助手兵家必争。 应用增长:AI+X 赋能类产品大干快上,原生 AI 爆款难求。 产品趋势:多模态上马,Agent 席卷一切,高度个性化呼之欲出。 智变千行百业:左手变革生产力,右手重塑行业生态。 行业渗透率:数据基础决定初速度,用户需求成为加速度。 创投:投融资马太效应明显,国家队出手频率提升。 对用户交互体验的改变: ChatGPT 使用户从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 在文科白领方面,AI 能完成 80%到 90%的工作,如个人助理、呼叫中心、文本处理和教育等领域。 对于工科白领,特别是程序员,AI 能简化代码检索和调整。 在蓝领领域,AI 在自动驾驶方面取得显著进展。
2025-03-31
AI对健身教练行业会有哪些改变
AI 对健身教练行业可能带来以下改变: 1. 售前客服方面:AI 减重顾问能够解决相关问题,提高服务效率和质量。 2. 健康监护方面:学员离开健身营后,AI 可进行健康监护,持续关注学员的健康状况。 3. 学员体验方面:能显著提高学员的体验,为学员提供更全面、个性化的服务。 此外,在全行业中,AI 在基础办公提效方面,如 ppt、excel、会议报告、策划会、文案包装、图文海报、客服机器人 bot 等,从单个任务 task 到角色 role 再到角色间协同 collaboration 都能显著提高工作效率。在人力资源管理领域,AI 的应用覆盖了从招聘初期到员工绩效评估再到员工培训与发展的各个环节。在游戏行业,大模型不仅能降低成本,还能打造创新玩法,提供更好的游戏体验,让游戏 NPC“活起来”生成新的数字世界。在其他领域,也已经开始出现专门为协助特定任务而设计的 AI 驱动工具和教练,如搭配服装、提供职业建议、提升沟通能力等。
2025-03-21
AI将对健身行业有哪些改变
AI 对健身行业可能产生以下改变: 1. 个性化训练方案:通过分析个体的身体数据和运动习惯,为每个人定制专属的健身计划。 2. 实时监测与反馈:利用可穿戴设备等技术,实时收集运动数据,提供即时的反馈和调整建议。 3. 优化健身设施:借助 AI 预测需求,合理配置健身资源,提高设施的使用效率。 4. 提升教练效率:辅助教练更精准地评估学员状态,制定更有效的训练策略。 5. 创新健身模式:开发新的虚拟健身课程和互动体验,增加健身的趣味性和吸引力。 需要注意的是,目前提供的内容主要侧重于医疗保健和人工智能的整体现状及预测,对于健身行业的直接阐述较少,以上是基于 AI 在相关领域的应用趋势进行的合理推测。
2025-03-21
推理行大模型对于RAG的准确性提升,带来哪些改变
推理行大模型对 RAG 准确性提升带来了以下改变: 1. 当辅以能有效提取文档中结构化信息并整合为提示词的 PDF 解析器时,大语言模型能作出更准确的响应,提高了提供给模型的数据质量和相关性,从而提升模型输出质量。 2. 大模型应用领域常用的 RAG 方法,能让模型用自定义数据生成结果,处理无尽私有数据,将模型当成高效推理机器。但 RAG 存在一些常见误区: 随意输入任何文档不一定能得到准确回答,RAG 流程中的多个环节都会影响最终质量。 RAG 虽能减少幻觉,但不能完全消除,只要有大模型参与就可能产生幻觉。 RAG 仍消耗大模型的 Token,最终需大模型处理检索结果生成通顺回答。 未来,将研究分享更多基于深度学习的文档解析方法,以更全面理解 RAG 质量和文档解析质量的关系。同时,前沿模型研发团队力争做到吞吐量、速度和准确度的最佳平衡。
2025-03-03