Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我做了一个视频,背景是实拍的城市照片,角色是一个卡通角色,通过即梦让照片上的卡通角色动起来后,发现卡通角色的脸跟手臂动作都糊了。 我现在有什么办法优化,对卡通角色五官重绘更清晰的情况下,还保留现实的照片背景。(用sd重绘的话是不是就丢失了)

Answer

以下是一些可能有助于您优化视频的建议:

  1. 对于您提到的卡通角色动作模糊的问题,可以尝试使用 Dreamina 工具,并将运动速度设为慢速,同时在 Prompt 里写轻微的动作描述,可能会有不错的效果。
  2. 由于 Dreamina 工具存在只有 8 帧和 720P 的限制,您可以使用 Topaz Video AI 将其增强到 24 帧和 4K。在 B 站搜索“Topaz Video AI 4.2.1”关键词能找到相关教程。增强完成后,再放到剪映里裁成 21:9 的比例。
  3. 对于卡通角色五官不清晰的情况,如果 AI 工具无法处理,可能需要使用传统的 AE 软件自己制作,比如普通的下沉位移动画。

需要注意的是,在某些情况下,如人物在水中下沉时,AI 视频可能会出现脸糊的情况,这种情况可能需要传统手段来解决。

Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:清影

|文生视频|视频(纯享版)|视频(配音版)|PROMPT|<br>|-|-|-|-|<br>|7、阳光森林| | |在一片森林中,人视,参天大树遮蔽着太阳,树叶的缝隙中洒下一些阳光,丁达尔效应|<br>|8、土豆变薯条| | |广告拍摄视角,黄色背景,白色桌子上,画面中一个土豆被扔下来变成一份薯条|<br>|9、吗喽打工| | |Two monkeys in ragged clothes are typing on a computer in a colorful room,their eyes moving exaggeratedly as if telling a humorous story.The room is filled with bizarre decorations and toys,creating a dreamlike atmosphere.The camera uses a whimsical and ethereal style,following the monkeys with a handheld shot to capture their comical movements,occasionally switching to slow motion to highlight their exaggerated expressions.The lighting features a contrast of warm and cool tones,enhancing the playfulness of the scene.The depth of field varies,sometimes focusing on the monkeys and sometimes on the computer screen,creating a light-hearted and humorous visual effect.|<br>|10、赛博吗喽黑客(体现指令跟随能力)| | |在霓虹灯闪烁的赛博朋克风格城市夜景中,手持跟拍的镜头缓缓推近,一个机械风格的小猴子正在用高科技工具维修,周围是闪烁的电子设备和未来主义的装修材料。赛博朋克风格,气氛神秘,4K高清。|

卡兹克:我们花了10天时间,给CCTV6做了一部AI短片 - 5000字全流程复盘拆解

我只能在此呼吁一下Dreamina:求求了,啥时候这个蠢问题,赶紧改了吧。。。Dreamina对Prompt的语义理解非常好,强烈推荐大家把运动速度设为慢速,我经常喜欢慢速+Prompt里面写轻微XX。会有很不错的效果。另一个Dreamina非常智障的一点是,只有8帧+720P,对比Runway这种24帧+4k的,基本约等于没法用。所以还是需要Topaz Video AI去增强到24帧+4K的。Topaz Video AI的教程我就不在这里细说了,给大家一个关键词:Topaz Video AI 4.2.1,拿着这个关键词,去B站搜教程,又好用又简单,非常方便。增强完以后,再扔到剪映里,裁成21:9,这一套就算是齐活了。AI视频的趴写了这么多,基本已经能处理大部分的效果了。但是,很多东西,依然是AI搞不定的。比如人物在水中下沉的时候,不管你用哪家AI视频,脸必糊,跟恐怖片一样。这种糊脸,在视频里,讲道理是无法接受的,太恐怖,也太让人出戏。于是,就只能上传统AE,自己做,反正就是个普通的下沉位移动画。跑了个静态图。

画小二团队:《李清照》AI视频创作流程项目文档

|分镜|子分镜|画面主题|Prompt|效果|创作者|<br>|-|-|-|-|-|-|<br>|29|29|李清照走向窗边,眺望繁华的都市|The aerial view of the city center,showcasing an urban skyline with tall buildings and streets illuminated by lights.The scene includes distant mountains under clear blue sky,in the style of intricate and bizarre illustrations,monochrome ink,light white and dark blue,meticulous design,i can't believe how beautiful this is,charming characters --ar 16:9 --niji 5| ||<br>|30 |30 |返回宋代赵母继续训斥赵明诚,明天我就让孙大人把他小儿女送过给你做小妾,说什么今年我都要抱上大孙子|a elderly Asian grandma sitting wearing Hanfu shouts at a young man,in an ancient Chinese courtyard,song dynasty,in the style of intricate and bizarre illustrations,monochrome ink,light white and dark blue,meticulous design,i can't believe how beautiful this is,charming characters --ar 16:9 --niji 5 | ||<br>|31|31|李清照淡然世外,走进书房|[https://s.mj.run/8dOfsA5iY8w](https://s.mj.run/8dOfsA5iY8w)A beautiful ancient Chinese woman,dressed in Hanfu,stands among the flying papers of ancient China with many scattered papers on her.She holds calligraphy brush,writing carefully,song dynasty,in the style of intricate and bizarre illustrations,monochrome ink,light white and dark blue,meticulous design,i can't believe how beautiful this is,charming characters --ar 16:9 --niji 5| ||

Others are asking
将照片改成卡通效果用什么ai会比较简单易操作
以下几种 AI 工具可以将照片改成卡通效果,操作相对简单易操作: 1. ChatGPT 4o:支持上传照片后直接生成“吉卜力卡通风格”图像,提示词只需简单写“吉卜力风格化”即可,后续会话中只需上传图片,无需重复输入提示词。参考链接:
2025-04-08
如何让一张卡通人物动起来
要让一张卡通人物动起来,可以参考以下几种方法: 1. 使用 AnimateX :类似 Animate Anyone,输入角色图片和参考动作序列,即可实现角色动画,尤其适配拟人化的角色。 2. 借助 Pika : 账号注册:访问完成免费注册。 素材整理: 视频:准备一段视频,可手机实拍,≥5 秒,生成时会自动截取前 5 秒,横屏/竖屏均可(建议 1080p 以上)。 图片:准备一张主体清晰无遮挡的角色图片,生成的视频中将参考此图片的角色并融入视频。 文案思路:提前构思角色动态关键词(如“奔跑/挥手/发光”),也可让模型自由发挥。 3. 运用即梦进行图生视频:只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。 此外,在制作过程中,还可以像桂大羊的教程那样,通过描绘人物的提示词、上传角色参考图、扣除角色背景以便于进行角色加背景的融合生成时进行垫图操作等方式,提高人物和场景的融合度。
2025-03-30
我想用自己训练的卡通形象lora生成一张元宵节放孔明灯的海报,应该怎么制作
以下是用自己训练的卡通形象 lora 生成元宵节放孔明灯海报的制作方法: 1. 关键词: 模型:dreamshaper_8 正关键词:,white,white_background,CGposterrender bsw <lora:电商新年海报 2024_v1.0:0.4>,gold,<lora:新年红包封面_v1.0:0.6>,new year,<lora:gcbottle:0.3> 中文的关键词:(杰作,高分辨率,高品质,高分辨率)中国建筑,红色主题,剪纸,中国结,纸灯笼,中国图案,金色,中国元素,红色背景 2. ControlNet 设置: 预处理器:depth_leres 模型:control_v11f1p_sd15_depth 权重:0.75 预处理器:softedge_pidinet 模型:control_v11p_sd15_softedge 权重:0.3 3. lora 资源: https://www.liblib.ai/modelinfo/bddf824e232f4124991c05a26027504d https://www.liblib.ai/modelinfo/983703dd48134e43983b84abfcb44308 第三个东方瓷器 lora 已经下架(请至 AGI 之路百度云下载) 链接:https://pan.baidu.com/s/10hYM8i2y2Li9OlT2oD1qOQ 密码:asub 您可以参考以上步骤进行制作,同时您还可以访问以下链接获取更多相关信息: 作者小红书:https://www.xiaohongshu.com/user/profile/5cfd0e600000000016029764?wechatWid=803c253b00ed4224d3a2adcd80b46ed7&wechatOrigin=menu 通往 AGI 之路小红书教程:http://xhslink.com/OOeHsy AI 春晚阶段性纪实:https://waytoagi.feishu.cn/wiki/MI0UwhfXJiRH9ak4dwxcwqPVnIh
2025-02-08
如何用自己的形象做卡通数字人?
以下是用自己的形象做卡通数字人的方法: 1. 简单提示词方法: 在聊天窗口输入/imainge找到/imagine prompt,然后把刚才的链接放进去,然后空格。 加一些提示词,这些提示词以英文逗号分隔,最后再加上设置参数。 设置参数: iw 1.5是设置参考图片的权重,数值越高与参考的图片越接近,默认是0.5,最大是2,可选择中间的某个值并调整。 s 500设置风格强度,个性化,艺术性,数字越大,更有创造力和想象力,可设置为01000间任意整数。 v 5是指用midjourney的第5代版本,这一代的最真实,目前v5需要订阅付费,不想付费可以使用v 4。 no glasses是指不戴眼镜,如果你不喜欢戴眼镜的图片,可以戴上这个设置,让它不戴眼镜。 完整的提示词如下simple avatar,Disney boy,3d rendering,iw 1.5s 500v 5。如果对生成的效果不满意,可以调整s和iw的值来进行多次尝试。 2. 剪映生成数字人方法: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象,比如“婉婉青春”。 选择数字人形象时,软件会播放其声音,可判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中。剪映App会根据提供的内容生成对应音视频,并添加到当前视频文件的轨道中。 左下角会提示渲染何时完成,然后可点击预览按钮查看生成的数字人效果。 增加背景图片: 直接删除先前导入的文本内容,因为视频中的音频已包含文字内容。 鼠标点击下方代表文字的轨道,或点击软件中间文字内容,按删除键删去文字。 点击左上角的“媒体”菜单,并点击“导入”按钮,选择本地的一张图片上传。 选择一张图片上传,点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 书架图片所在的轨道会在视频轨道的下面添加一条新轨道。 点击轨道最右侧的竖线,向右拖拽,直到视频的最后,与视频对齐。 背景图片所在的轨道若没选中,鼠标点击一下这个轨道即可。 在显示区域,拖动背景图的一个角,将图片放大到适合的尺寸,比如覆盖视频窗口,并将数字人拖动到合适的位置。 3. 复杂提示词方法: 如果觉得简单提示词生成效果不好,可以选择更为复杂一点的提示词,比如:Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5。 不同照片生成:如果对照片风格不满意,可以换一张新的照片使用上面的提示词重新生成。 其他调整:如果觉得Disney风格的头像太过卡通,可以把提示词里面的Disney都换成Pixar,皮克斯头像风格相对更加现代化和真实一点。如果是女孩,可以把提示词里面的boy换成girl。每次会生成4张图片,如果对某一张图片满意,点击下方的U1~U4生成大图,如果对风格满意但是需要调整,点击下方的V1~V4进行修改。
2025-02-07
如何把拍照头像生成一个卡通头像logo
以下是将拍照头像生成卡通头像 logo 的方法: 1. 复杂提示词: 如果觉得简单提示词不够好,可以使用更复杂的提示词,例如:“Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5”。 效果示例: 不同照片生成:如果对照片风格不满意,可以更换新照片并使用上述提示词重新生成。 其他调整:如果觉得 Disney 风格太过卡通,可以把提示词里的“Disney”换成“Pixar”;如果是女孩,可以把“boy”换成“girl”。每次会生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击 V1~V4 进行修改。 2. 操作步骤: 准备工作:如果还没有 Midjourney 账号或不懂基础操作,可以参考之前的教程,如“”。 上传图片:在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取图片,在聊天框发送(记得点击回车或发送按钮)。然后图片会上传到服务器并生成唯一链接,点击图片,在浏览器中打开,复制浏览器上方的链接。 输入提示词:在聊天窗口输入“/imainge”找到“/imagine prompt”,把刚才的链接放进去,然后空格,加一些提示词(以英文逗号分隔),最后再加上设置参数。 设置参数: “iw 1.5”设置参考图片的权重,数值越高与参考图片越接近,默认是 0.5,最大是 2,可选择中间值调整。 “s 500”设置风格强度,个性化,艺术性,数字越大,更有创造力和想象力,可设置为 0 1000 间任意整数。 “v 5”指用 Midjourney 的第 5 代版本,这一代最真实,目前 v5 需要订阅付费,不想付费可以使用“v 4”。 “no glasses”指不戴眼镜,如果不喜欢戴眼镜的图片,可以加上这个设置。 完整的提示词示例(替换您的 png 图片地址):“simple avatar,Disney boy,3d rendering,iw 1.5s 500v 5”。如果对生成效果不满意,可以调整“s”和“iw”的值进行多次尝试。 您还可以参考“科技小飞哥”的通俗易懂的教程,原文链接:https://leftpocket.cn/post/ai/cartoon/
2025-02-06
请推荐一下你知道的人物头像转卡通图的平台,要求效果好,和原图相似度高,最好是免费的
以下为一些人物头像转卡通图效果好、与原图相似度高且可能免费的平台及相关操作技巧: 1. Stable Diffusion: 可以使用【X/Y/Z plot】脚本来做参数对比,将 X 轴设置为提示词相关性(取值范围 1 30,每次增加 5),Y 轴设置为重绘幅度(取值范围 0 1,每次增加 0.2)。 提示词相关性在 6 11 中间为最佳,重绘幅度 0.4 时和原图比较接近。 可使用绘图功能,如增加红色眼镜、去掉衣服图案等,局部重绘可只改变涂抹部分。 2. 复杂提示词: 如 Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 。 可根据需求调整提示词,如将 Disney 换成 Pixar,boy 换成 girl 等。 3. 通用人物模版: 用真人照片+照片描述+方法 1 的关键词来处理。 需要注意的是,不同平台的效果可能因图片和操作而有所差异,您可以自行尝试。
2025-02-06
剧本分析(NLP):AI 读取剧本,分析情节、角色发展,甚至预测观众反应。
以下是关于剧本分析(NLP)中 AI 读取剧本并进行相关处理的一些信息: 人物剧本与角色状态: 对人物如李洛云进行“剧本推演”,每天生成 20 40 个时间段剧本,依据人物背景和增长记忆体生成。 可使用 LLM 生成英文提示词用于 Stable Diffusion 出图,图存于“手机相册”用于对话多模态中的图片回复。 选择剧本和图片生成朋友圈文案。 拟人行为: 反感度系统:通过 LLM 分析对话判断角色是否产生反感度。 延迟回复:根据状态忙闲或是否睡觉决定回复时间。 接受多轮输入,一并回复:避免每一条输入回复一句,不像真人。 响应拆分与响应延迟:将一大段响应文本拆分成多段,模拟人类打字速度(3 5 字/秒),回复时概率性使用表情包,有概率主动聊天(与亲密度正相关)。 微信朋友圈:根据每天人物剧本挑选 1 2 个发布朋友圈并配图,目前内容由 AI 生成但手工发布。 将小说做成视频的制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)提取关键场景、角色和情节。 2. 生成角色与场景描述:用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 3. 图像生成:用 AI 图像生成工具创建图像。 4. 视频脚本制作:将关键点和图像组合成脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)转换语音,添加背景音乐和音效。 6. 视频编辑与合成:用视频编辑软件(如 Clipfly 或 VEED.IO)合成。 7. 后期处理:剪辑、添加特效和转场提高质量。 8. 审阅与调整:观看视频并根据需要调整。 9. 输出与分享:完成编辑后输出并分享。 Inworld AI: Inworld AI 是一家专注于游戏和人工智能的初创公司,开发了 Inworld 的 AI 角色引擎,可将游戏 NPC 进行 AI 化并集成到游戏中。该引擎超越大语言模型,增加可配置的安全性、知识、记忆、叙事控制、多模态等功能,使 NPC 能够自我学习和适应,具有情绪智能。其角色引擎可创建具有独特个性和上下文意识的角色,无缝集成到实时应用中,内置优化规模和性能的功能。Character Brain(性格大脑)引擎使 AI NPC 能够学习和适应,具有情绪智能的关系导航能力、记忆和回忆能力,并能自主发起目标、执行动作并遵循动机。功能包括目标和行动、长期记忆、个性、情绪等。
2025-03-20
角色扮演与人设研究
以下是关于角色扮演与人设研究的相关内容: 在换位思考方面,比如玩假装是海盗的游戏,需要像海盗一样思考和说话,这种方法可用于训练机器人像所假装的角色一样思考和行动,有助于理解和预测角色的言行。以论文中的 SimToM 两阶段提示框架为例,包括角色扮演和推理两步。角色扮演时,模型理解故事中代理人的所知和愿望,并从其视角重构故事;推理时,基于特定视角的信息推断问题答案。 在让 AI 像人类一样思考方面,自主体感轮子本质上是在逻辑体感轮子基础上补充了角色扮演的人设认知,包括人设认知层(角色价值观、个人能力、语言风格、互动方式)和任务执行层。其中,价值观认知和互动方式认知最为重要,分别影响个人立场决策和对话时的用户体验。 在游戏中的生成式 AI 革命方面,生成式 AI 对话能让游戏角色说任何话以响应玩家行为,结合更智能的 NPC AI 模型,完全响应玩家的游戏将成为现实。角色扮演方面,使用与玩家虚拟形象匹配的生成声音可维持幻想角色的幻觉。此外,还能控制生成声音的细微差别,实现本地化,将对话翻译成任何语言并以相同声音发音。
2025-03-16
我想给deep seek设置长篇小说作家的角色设定,我应该说哪些指令
以下是为 Deep Seek 设置长篇小说作家角色设定时可以考虑的指令: 1. 明确写作风格和特点,例如指定模仿某位知名小说家的文风,如鲁迅的文风特点。 2. 描述故事的背景、主题和情节框架,比如设定故事发生在特定的历史时期或虚构的世界。 3. 规定小说的体裁和类型,如言情、科幻、悬疑等。 4. 对人物塑造提出要求,包括主要人物的性格、外貌、经历等。 5. 设定语言表达的要求,如语言的优美程度、词汇的丰富性等。 6. 明确字数范围,例如要求创作一部不少于 10 万字的长篇小说。 7. 给出情节发展的节奏和起伏要求,比如要求情节紧凑、高潮迭起。 8. 强调故事的逻辑性和连贯性,避免出现逻辑漏洞和情节跳跃。 在设置指令时,应尽量具体、清晰,避免过于宽泛和模糊的表述,例如将“写小说”优化为“创作以 AI 觉醒为背景的悬疑长篇,采用多视角叙事结构,人物形象鲜明,情节跌宕起伏,语言优美生动,字数不少于 20 万字”。同时,对于生成的内容,可以通过多轮对话进行增删改查,以达到理想的效果。
2025-03-12
我想给deep seek设置角色设定,我应该说哪些指令
以下是为 Deep Seek 设置角色设定时可以参考的一些指令: 1. 明确模型的具体任务,例如专门分析视频并从中找到特定内容。 2. 在向模型提供视频之前添加指令,如说明视频的数量、来源和对模型回答的限制,例如“这里有三个视频。每个都是来自 Deep Learning AI 的 LLM Ops 课程的一课。你的答案只基于视频。” 3. 为模型准备具体的问题,例如“请为每个视频创建一个摘要,概述其中讨论的主要内容。每个摘要限制在 100 词以内。”“在这三个视频中,哪一个视频的讲师运行并解释了 Python 代码'be_query_clients.query'?请指出在视频中可以找到这段代码的具体位置。”
2025-03-12
角色:你是一名软件开发公司的运营经理 背景:现在要准备入局AI导航网站市场,通过AI导航网站实现布局产品流量入口,来获取AI风口的流量。 任务:请你完成AI导航网站的国内外市场调研 要求:调研内容包括AI网站导航的市场、竞品、用户分析以及产品规划、团队人员需求及资源需求、有哪些风险点
以下是对您需求的调研分析: 一、市场分析 目前,AI 领域发展迅速,AI 导航网站作为获取相关信息和资源的入口,具有较大的市场潜力。随着人们对 AI 技术的关注度不断提高,对于便捷、高效的 AI 资源导航需求也在增加。 二、竞品分析 暂未获取到直接关于 AI 导航网站的竞品详细信息。 三、用户分析 用户可能包括对 AI 技术感兴趣的个人、开发者、研究人员、企业等。他们希望通过导航网站快速找到所需的 AI 工具、资源、案例等。 四、产品规划 1. 提供全面、准确的 AI 网站分类和链接,涵盖工具、研究成果、应用案例等。 2. 设立用户评价和推荐系统,帮助用户筛选优质资源。 3. 提供个性化推荐功能,根据用户的浏览历史和偏好推送相关内容。 五、团队人员需求 1. 技术人员:负责网站的开发和维护,如前端开发、后端开发等。 2. 内容编辑:收集、整理和更新 AI 网站信息。 3. 运营人员:负责推广、用户互动和数据分析。 六、资源需求 1. 服务器和带宽资源,以保证网站的稳定运行和快速响应。 2. 数据采集和更新的工具和技术。 七、风险点 1. 市场竞争激烈,可能面临已有成熟竞品的压力。 2. AI 技术发展迅速,需要及时更新网站内容,以保持竞争力。 3. 可能存在版权和法律合规方面的风险。 4. 用户获取和留存的挑战,需要提供优质的服务和用户体验。
2025-03-11
开发角色在使用AI的时候会涉及哪些AI工具,帮我分别具体列举出来
开发角色在使用 AI 时可能涉及以下工具: 1. 个性(LLM 的文本):一些开源模型如 Vicuna 和 Pygmalion 经过微调,可在特定个性到无审查的角色扮演等场景中表现出色。 2. 记忆(向量存储):像 Pinecone 这样的向量存储系统,用于存储长期记忆、背景故事等独特信息。 3. 语音(语音合成):ElevenLabs 产品可赋予声音,并控制年龄、性别和口音。 4. 外表(SD 模型作图):LoRAs 可精细控制图像风格、细节和设置。 5. 动画(视频动画):DID 和 HeyGen 等工具能使图像“说话”。 6. 平台:多数开发者在 GCP 和 AWS 上部署运行,Steamship 等解决方案也受关注。 7. UI 层:SillyTavern、Agnaistic 和 KoboldAI 等是受欢迎的前端界面选择。 在游戏开发方面: 1. Unity 提供了新 Copliot 工具,可通过与 Muse Chat 聊天快速启动创建游戏项目,协助编码,创建 3D 材质、动画等内容。 2. Unity Sentis 工具允许在 Unity 运行时为游戏或应用程序嵌入 AI 模型,增强玩法和功能,是跨平台解决方案。
2025-03-07
局部重绘(in-painting)的工具有哪些
以下是一些常见的局部重绘(inpainting)工具: 1. Midjourney 官方用户端:其编辑模式提供了对图像进行“局部编辑(inpainting)”的功能,让您可以对图像的特定部分进行修改和调整。 2. FLUX:FLUX.1 Fill 局部重绘和扩图模型具有先进的修复功能,支持重绘和扩充,性能优于其他竞争方法。 3. Stable Diffusion(SD):在使用“图生图”中的局部重绘功能时,选择专门用于重绘的模型,如带有“inpainting”标识的模型,可实现去除图像中不需要的元素等操作。
2025-03-19
如果要用AI重绘一张已有的图片,给怎么做
要用 AI 重绘一张已有的图片,可以按照以下步骤进行: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章——。此步骤可重绘五官,但头发、衣服等元素可能无法变清晰。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准、重绘效果最好的。不知道的朋友可以参考文章——。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 此外,局部重绘的操作如下: 1. 使用大模型“lofi”绘制人物形象,在提示词中加入相关标准化提示词和负面 Embedding 以修复细节问题。 2. 将图片发送到图生图,点击“局部重绘”,用画笔将需要调整的部分涂上作为蒙版。 3. 在正向提示词里添加相应描述和权重,比如,适当增加重绘幅度并生成。 4. 还可以进入涂鸦重绘,用颜色画笔画任意想添加的东西。 在高清修复方面: 1. 文生图高清修复的原理是命令 AI 按照原来的内容重新画一幅,新生成的绘图和原图在细节上会有不同。若想更接近原图,可适当降低重绘幅度,比如 0.2 0.3。 2. 当抽到喜欢的图后,可用随机种子固定图片进行高清修复。由于高清修复渲染耗时较长,一般建议先采用低分辨率抽卡刷图。 3. 第二种放大方式是使用图生图的脚本功能,将文生图发送到图生图,点击脚本选择 SD 放大,重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64。
2025-02-07
局部重绘
局部重绘是指针对图像或画面中的特定局部区域进行重新绘制、修改或调整,而不影响整体画面的其他部分。 使用局部重绘的方法如下: 1. 进入操作界面,滑动鼠标到图像区域后,可以选择智能选区与手动选区两种使用方法。 智能选区: 选中选区:滑动鼠标到图像区域,会自动框选图像区域,点击鼠标左键即可锁定。 增加选区:左键点击其他未选中区域,即可增加选区。 删除选区:选中后+键盘 dell 按键可以删除选区。智能选区中紫色区域即为重绘部分。 手动选区: 画笔工具:对图像涂抹进行选区。 橡皮工具:擦除不想要修改的区域。 索套选区:可以用它圈出任意形状的区域。 方框选区:方形选区。 2. 局部重绘成功后: 调整选区:返回选择选区界面,进行再一次调整。 保存图像:下载最终图像。 分享图像:生成图像分享链接。 信息查看:查看图像重绘信息,可将信息发送到生成器当中。 保留这张图:将图像保存到无限画布中。 对比:对比重绘前后的图像。 在顶部导航栏中: 退出:不保存最终图像,回到无限画布中。 新图:更换重绘的原图。 操作步骤为:选区>定义重绘内容>调整重绘幅度>点击重绘按钮>保存这张图。
2025-01-23
能到达图片重绘效果的软件
以下是一些能够实现图片重绘效果的软件及相关信息: Stable Diffusion: 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。可参考文章。 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 Midjourney: 最新编辑器更新,可上传图片重新绘制。允许从计算机上传图像,然后扩展、裁剪、重绘、添加或修改场景中的元素。还推出了“图像重纹理化模式”,会估算场景的形状,然后重新应用纹理,使得所有光照、材质和表面都发生变化。所有图像编辑操作都可以通过文本提示和区域选择来控制。编辑器兼容模型个性化、风格参考、角色参考和图像提示功能。 常见问题:如果提出极其不合适的请求,或者要求修改一个非常小的区域,可能无法得到预期的结果;如果在场景中放了一个很小的头部并要求进行外绘,生成的身体可能会太大(所以请将头部放大一些)。 重纹理化:是一种通过使用另一张图像来引导图像结构或构图的方法。从构图引导图像开始(在全功能编辑器中上传或链接的基础或母图像),然后使用提示词和参数来添加所需的细节。 右侧显示的缩略图:显示器右侧的缩略图显示的是最近几次编辑会话的记录。左边稍大一点的缩略图是上传或链接的图像。其他四张缩略图是子图像,展示了 Midjourney 根据提示生成的四种不同表达方式。 按钮:用于查看更多相关内容。 使用规则:由于这些功能非常新,Midjourney 希望给社区和人工审核团队一个缓慢适应的时间,因此在第一个发布阶段,将这些功能开放给以下社区群体:已生成至少 10,000 张图像的用户,年度会员可用;过去 12 个月内一直是月度订阅用户的用户(MJ 尝试做得更细致一些,但数据库处理起来有些复杂,抱歉!)
2024-12-05
识别图片中的形状和文字元素并在PPT中重绘图像的AI工具
以下为您推荐一些能够识别图片中的形状和文字元素并在 PPT 中重绘图像的 AI 工具: 1. Gamma:这是一个在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片。它支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。网址:https://gamma.app/ 2. 美图 AI PPT:由知名图像编辑软件“美图秀秀”的开发团队推出。用户通过输入简单的文本描述来生成专业的 PPT 设计,包含丰富的模板库和设计元素,可根据需求选择不同风格和主题的模板,适用于多种场合。网址:https://www.xdesign.com/ppt/ 3. Mindshow:一款 AI 驱动的 PPT 辅助工具,提供一系列智能设计功能,如自动布局、图像选择和文本优化等,简化设计流程,还可能包括互动元素和动画效果。网址:https://www.mindshow.fun/ 另外,如果您想从游戏截图升级到 KV 品质,正式绘画目前有图生图和 controlnet 两种出图方式。但如果底图质量不够,想要 AI 更自由发挥,除了调高重绘幅度,还可以在 controlnet 上有更多探索。输入正负 TAG,设置好图片尺寸、迭代步数、采样器、重绘幅度后,等待图片生成。controlnet 包含的功能很多且在不断更新,如需更多了解可跳转 B 站深度学习:https://www.bilibili.com/video/BV1Ds4y1e7ZB/?spm_id_from=333.337.searchcard.all.click
2024-08-29
我创作了一个AI视频,背景是实拍的城市照片,角色是一个卡通角色,通过即梦让照片上的卡通角色动起来后,发现卡通角色的脸跟手臂动作糊了,我期望通过comfy对其重绘,能解决保留现实背景,卡通角色五官重绘更清晰吗?
在处理您提到的这种情况时,有以下一些建议和方法: 1. Dreamina 对 Prompt 的语义理解较好,您可以将运动速度设为慢速,并在 Prompt 里写轻微的相关描述,可能会有不错的效果。但需要注意的是,Dreamina 存在只有 8 帧和 720P 的限制,对比 Runway 的 24 帧和 4K 有差距。所以需要使用 Topaz Video AI 去增强到 24 帧和 4K,您可以在 B 站通过“Topaz Video AI 4.2.1”这个关键词搜索教程进行学习。增强完以后,再扔到剪映里裁成 21:9。 2. 对于人物在水中下沉等情况导致的脸糊问题,很多时候 AI 搞不定,可能需要使用传统 AE 自己制作普通的下沉位移动画。 不过,需要说明的是,在一些复杂的场景和动作中,AI 可能仍然存在一定的局限性,需要综合多种工具和方法来达到理想的效果。
2024-08-25
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11