Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

生成漫画动作参考图

Answer

以下是一些生成漫画动作参考图的方法:

  1. 喂参考图:先上传喜欢的参考图,复制其链接。在关键词处填写“图片链接+这张图的关键词”,例如“链接图片.png,a Super cute sports girl,wearing a basketball vest,blueshortsbig watery eyes,clean bright basketball court background,super cute boy IP by pop mart,Bright color,mockup blind box toydisney stylefine luster,3D render,octane render,best quality,8k brightfront lightingFace Shot,fine luster,ultra detail,--ar 9:16”。还可以通过修改关键词改变服装颜色等细节。
  2. 使用 panels 命令:此命令可生成连续的动作和表情设计,将模型设置改为 niji mode 画动漫角色效果更好。例如“a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with different poses 8K”,也可以使用“continuous running”生成更稳定的连续动作,甚至做成 gif 动画。
  3. 利用 character sheet 命令:创建一个角色的多角度以及特写细节,例如“a Super cute sports anime girl,style by Miyazaki Hayao,character sheet,full body,8k”。
  4. 使用 emoji、expression sheet:emoji 代表表情包,expression sheet 代表各种表情组合,可用此核心关键词设计出表情包。例如“图片链接.png a Super cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k”。

另外,使用 ControlNet 插件也能生成漫画动作参考图。首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高,对图片的参考越强。可以通过添加关键词的方式给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等。这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。

Content generated by AI large model, please carefully verify (powered by aily)

References

如何让生成的图片更加可控?

有时候,我们希望能够画一个系列的插画,让主体形象保持稳定,并让它能保持一个风格不变,这个会更适合我们实际工作需要。举例:画一个人物,在保证人物形象基本一致的情况下,让她在服装、表情、动作和场景上做出不一样的表现。有几个方法可以尝试:1.喂参考图先把自己喜欢的参考图上传,然后点开上传的图片,复制它的链接。(具体上传的方法,上一篇有讲过,这里不再赘述)然后在关键词的地方填上:图片链接+这张图的关键词。例如:链接图片.png,a Super cute sports girl,wearing a basketball vest,blueshortsbig watery eyes,clean bright basketball court background,super cute boy IP by pop mart,Bright color,mockup blind box toydisney stylefine luster,3D render,octane render,best quality,8k brightfront lightingFace Shot,fine luster,ultra detail,--ar 9:16这是参考图这是生成后的图,基本上还是可以保持她的特征的接着给她换一件蓝色的衣服,同样的上传她的图片,复制关键词,这次我们把衣服的颜色改一下,在关键词中加一个wearing a blue basketball vest2.使用panels命令Panels这个命令可以生成连续的动作和表情设计。如果你希望的是设计一个角色,并拥有连续的动作和表情,用这个命令就会非常方便。(提醒下,如果想画动漫角色可以把模型设置先改为niji mode,画动漫角色效果会更好)我继续用上面的关键词修改一下作为例子:a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with different poses 8K

如何让生成的图片更加可控?

(说明:这里的关键词修改,我去掉了3D渲染风格,去掉了3D风格向的参考图,还去掉了很多修饰性关键词,约束太多可能会导致这个命令失效,我猜测可能是为了能兼顾到各种特征,所以存在一个权重问题,权重后面会讲)另外,使用continuous running也可以更稳定的舒服连续动作,甚至可以做成gif动画例如:a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with continuous running可以看到,在niji模型下,画手还是差点意思,但作为参考图来说,已经挺好了。3.利用character sheet命令创建一个角色的多角度以及特写细节例如:a Super cute sports anime girl,style by Miyazaki Hayao,character sheet,full body,8k我也顺便对比了下niji模型和现在的v5模型,同样的关键词,生成的结果差别还是挺大的。实测发现v5在画手方面确实要比niji更好了。4.使用emoji,expression sheet这里的emoji代表表情包,expression sheet代表各种表情组合,可以用这个核心关键词设计出表情包例如,我还想用之前生成的角色做,那么我在关键词前面会把刚才的图片喂给AI:图片链接.png a Super cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k

【SD】最强控制插件ControlNet(5)参考风格reference

首先我们进入文生图,填写一段提示词。如下:(杰作,最好的质量),一头白发的女孩坐在绿植和鲜花的田野里,温暖的灯光,模糊的前景。设置一下常规参数,先生成一张图。接下来,我们想用这个人物作为主角生成一系列其他的图。将图片拖入到ControlNet中,预处理器选择reference only,控制模型一定要选择“均衡”。保真度数值越高,对图片的参考就越强,我们先设置为1看看。可以看到,在没有明确指向性提示词的情况下,人物形象保持了一致,但是她的表情、动作、服装产生了随机的不同程度的变化。我们可以试着通过添加关键词的方式来给人物换装,比如添加“红裙子”。同时更改服装和表情,比如添加“黑色校服、哭泣”。同时更改动作和表情,比如添加“抱手、生气”。同时更改姿态,环境和表情,比如添加“在花丛中奔跑、开心”。添加“红色棒球帽,时尚卫衣,在商场逛街”。通过一系列测试,可以发现这个功能可以让我们在绘制系列插画、漫画、小说插图等等工作时,能保持主角形象的统一,也能根据情况做实时的调整,如果后期再配合lora,潜力可以想象是非常大的。

Others are asking
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
真人头像改为漫画风格
要将真人头像改为漫画风格,可以参考以下方法: 1. 使用 SDXL Prompt Styler 插件: 转绘成折纸风时,最好不要加入线稿边缘(canny)的 controlnet 控制,或把 canny 的控制强度(strength)调到较小,因为手绘线条和折纸风格互斥。 若转成漫画风格并想较好保留人物外轮廓,加入 canny 控制能更好还原人物原本造型。 有时插件内置预设的提示词组合不一定能达到想要的效果,可在 prompt 中添加更多相关风格的关键词,如印象派风格可添加 impressionism、monet、oil painting 等。 该工作流结合 Vid2Vid Style Transfer with IPA&Hotshot XL 工作流,可较好实现视频不同风格的稳定转绘。 2. 选择复杂提示词: 如 Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 。 若觉得提示词简单,可选择更复杂的。 可根据需求调整提示词,如照片风格不好可更换照片重新生成;若觉得 Disney 风格太过卡通,可把提示词中的 Disney 换成 Pixar;若为女孩,可把 boy 换成 girl。每次会生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。 3. 使用 Coze“图像流”进行智能换脸: 该节点需要 2 个图,一个是脸图,一个是底稿图。第一个 reference 指的是参考的脸,即会换上去的脸;第二个 template 指的是背景图,即脸会被换掉的图;skin 指的是美肤。 美肤拉到 1 可能导致脸部磨皮涂抹痕迹严重。 在没有很明显的人脸或纯动漫风格时可能会报错,在文生图的提示词里加上写实风格能提高成功率。也可自己放进两张真实的图来替换脸,添加方式在开始框加上一个输入参数,类型为 image 即可。
2025-03-28
用照片生成漫画
以下是关于用照片生成漫画的相关内容: 一、使用 MJ 生成照片漫画 1. 需求分析 用自己的图片、照片生成以照片人物为主体的运动员头像漫画。 2. 操作步骤 输入:使用 ChatGPT 完成对应工作,输入奥林匹克项目生成人物描述,并结合设定好的提示词。 ChatGPT 生成描述:添加中国人、中国运动服和项目场景描述,生成 MJ 画图的提示词。 MJ 绘图测试:测试 MJ 绘图提示词的稳定性,确定是否需要垫图等。 局部重绘:使用局部重绘,结合 cref 链接照片,调整 cw 参数。 二、OpenAI GPT4o 图像生成模型 1. 核心功能 先进的多模态模型,能生成精确、真实感强的图像,具有实际用途。 2. 亮点功能 精确的文本渲染,能在图像中准确生成文字。 多样化场景生成,支持从真实感到漫画风格等多种图像生成,可根据上传图像进行灵感转化或视觉改造,具有上下文感知能力。 3. 技术改进 联合训练在线图像和文本的分布,学会图像与语言及图像之间的关系,后期训练优化在视觉流畅性和一致性方面表现出色。 4. 实际应用场景 信息传递、创意设计、教育与演示等。 5. 局限性 存在某些场景或细节的限制,如偶尔会过于紧密地裁剪较长图像,多语言呈现不佳。 6. 访问和可用性 已集成到 ChatGPT 中,Plus、Pro、Team 和 Free 用户推出,Enterprise 和 Edu 即将访问。开发人员很快可通过 API 使用,图像渲染时间较长。 三、四格漫画 可生成四种风格的四格漫画,需简体中文描述,足够幽默有趣的故事。
2025-03-27
漫画生成
以下是关于漫画生成的相关信息: Anifusion: 这是一款基于人工智能的在线工具,网址为 https://anifusion.ai/ ,其 Twitter 账号为 https://x.com/anifusion_ai 。 主要功能: 能根据用户输入的文本描述生成相应的漫画页面或动漫图像。 提供预设模板和自定义漫画布局的直观布局工具。 拥有强大的浏览器内画布编辑器,可调整角色姿势、面部细节等。 支持多种 LoRA 模型,实现不同艺术风格和效果。 用户对创作作品拥有完整商业使用权。 使用案例: 独立漫画创作。 快速原型设计。 教育内容创作。 营销材料制作。 粉丝艺术和同人志创作。 优点:非艺术家也能轻松创作漫画,基于浏览器无需安装额外软件,具备快速迭代和原型设计能力,并拥有创作的全部商业权利。 北大团队提出「自定义漫画生成」框架 DiffSensei: 故事可视化是从文本描述创建视觉叙事的任务,现有文本到图像生成模型存在对角色外观和互动控制不足的问题,尤其是在多角色场景中。 北大团队提出新任务“自定义漫画生成”及 DiffSensei 框架,该框架集成了基于扩散的图像生成器和多模态大语言模型(MLLM),采用掩码交叉注意力技术,可无缝整合字符特征实现精确布局控制,基于 MLLM 的适配器能调整角色特征与特定面板文本线索一致。 还提出 MangaZero 数据集,包含大量漫画和注释面板。 论文链接:https://arxiv.org/abs/2412.07589 ,项目地址:https://jianzongwu.github.io/projects/diffsensei/ 。 Niji V5 漫画生成: 漫画是起源于日本的流行艺术形式,有多种类型。 提供了一些漫画生成的提示示例,如“John Wick,漫画屏幕色调,屏幕色调图案,圆点图案,更大且间距更宽的点,高质量—ar 3:2—niji 5”等。 指出在 Niji Version 5 中能看到更多细节,尤其是面部表情,还可使用/describe 命令向 Midjourney 询问喜欢的动漫场景灵感,新的 MidJourney 命令—Image2Text 可生成准确描述图像的文本提示。
2025-03-18
AI怎么制作漫画视频
以下是关于使用 AI 制作漫画视频的相关内容: 制作流程: 1. 前期准备: 故事大纲和脚本编写:根据经验,可由专人负责内容构思和脚本编写。 2. 图像生成: 利用 Midjourney 生成图片,提示词可围绕皮克斯、迪士尼、3D 风格来写,重点包含关键元素如“a small white Chiense dragon,anthropomorphic,3D render,Unreal Engine,Pixar 3D style”,并注意尺寸比例和模型选择。 动画生成可使用 Runway,因其控制笔刷有优势。 3. 分工合作: 有人负责前期内容构思和脚本编写,有人负责图片、视频生成和视频剪辑。 如果是将小说做成视频,一般流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 工具与网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址: 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 8. 故事 AI 绘图:小说转视频的 AI 工具。网址: 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。内容由 AI 大模型生成,请仔细甄别。
2025-03-17
做漫画
以下是关于做漫画的相关内容: Niji V5 动漫提示干货操作实例: 漫画是一种起源于日本的流行艺术形式,有多种类型,如漫画绘图、底纹、网点等。 可以使用特定的提示词,如“John Wick,漫画屏幕色调,屏幕色调图案,圆点图案,更大且间距更宽的点,高质量—ar 3:2—niji 5”等,通过 Midjourney Niji v4 或 v5 来创作漫画。 可以使用/describe 命令向 Midjourney 询问最喜欢的动漫场景的灵感,还可以使用新的 MidJourney 命令—Image2Text 生成准确描述图像的文本提示。 六一儿童节活动: 活动内容是制作一副符合六一儿童节主题的四格漫画,充满童趣或者想象,也可以有教育意义或者小哲理。可以使用 AI 绘图工具 MJ、悠船、SD 做图,四格拼图可使用其他工具,如 ps、美图秀秀、醒图等。 参与规则:每位群成员限最多提交 2 个作品故事,单一格画面 1:1,4 个格拼起来 2:2。提交的作品必须是原创,不得抄袭他人作品,漫画内容要健康、积极,符合儿童节的主题。 提交时间:6 月 1 日 0 时至 6 月 2 日 12 时,提前或者逾期提交的作品将不予受理。 Sarah Andersen 漫画风格: 特色:通常使用简单的黑白线条作画,配以极富表现力的角色表情,经常探讨如焦虑、社交尴尬、性别问题以及对生活中普通但难以言说的瞬间的幽默呈现。 技巧:在主要描述语后面加上“by Sarah Andersen”或者“style reference Sarah Andersen”;在提示中加入情感色彩的描述,如“joyful,”“awkward,”或“anxious”等词;利用cref 命令保持人物的一致性。 应用:可用于社交媒体上的漫画创作、使故事更加生动有趣的插图、个性化礼物和商品设计(需注意版权问题)。
2025-03-04
已有30多篇参考文献,如何用AI写综述论文
利用 AI 写综述论文可以参考以下步骤: 1. 确定课题主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件来搜集相关的研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成综述论文的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写文献综述:利用 AI 工具来帮助撰写文献综述部分,确保内容的准确性和完整性。 6. 构建方法论:根据研究需求,利用 AI 建议的方法和技术来设计研究方法。 7. 数据分析:如果课题涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具来撰写综述论文的各个部分,并进行语法和风格的检查。 9. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具来检查综述论文的逻辑性和一致性,并根据反馈进行修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具来确保综述论文的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行综述论文写作时,应保持批判性思维,并确保研究的质量和学术诚信。
2025-04-10
论文参考文献自动生成的免费工具,请提供具体下载网址
以下是一些可以自动生成论文参考文献的免费工具及相关信息: 1. 文献管理和搜索: Zotero:结合 AI 技术,能够自动提取文献信息,有助于您管理和整理参考文献。 Semantic Scholar:这是一个由 AI 驱动的学术搜索引擎,可提供相关文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术为您提供文本校对、语法修正和写作风格建议,提升论文语言质量。 Quillbot:基于 AI 的重写和摘要工具,能帮助您精简和优化论文内容。 需要注意的是,这些内容由 AI 大模型生成,请您仔细甄别。您可以通过以下网址获取这些工具: Zotero:https://www.zotero.org/ Semantic Scholar:https://www.semanticscholar.org/ Grammarly:https://www.grammarly.com/ Quillbot:https://quillbot.com/
2025-04-09
怎么解决ai写论文时参考文献是虚构的
以下是关于解决 AI 写论文时参考文献虚构问题的一些信息: Agrawal 等人在 2023 年的研究(https://arxiv.org/abs/2305.18248)专门探讨了 LLM 生成中虚构参考文献的情况,包括捏造的书籍、文章和论文标题。他们试验了两种基于一致性的方法来检查幻觉:直接查询与间接查询。这两种方法都在温度参数 T>0 的情况下多次运行检查并验证一致性。 其中,直接查询要求模型判断生成的参考是否存在,间接查询则询问生成的参考的辅助细节,例如作者是谁。实验表明,间接查询方法效果更好,模型规模越大,识别虚假参考文献的能力越强。 此外,Claude 官方提示词工程最佳实践中也提到了处理幻觉的相关内容,但未给出具体针对参考文献虚构问题的解决办法。 在 ChatGPT 给 DALL·E 3 优化提示词的元提示中,主要强调了一些提示词的规范和原则,未直接涉及解决参考文献虚构的问题。
2025-03-19
有没有一键生成流程图的AI。参考[一招搞定:用AI秒生成专业流程图](https://mp.weixin.qq.com/s/cSLHwMFQhfU-VjSvRDJhzw)
目前有一些可以一键生成流程图的 AI 工具,例如: Lucidchart: 注册并登录: 选择模板:在模板库中搜索“项目管理流程图”。 编辑图表:根据项目需求添加和编辑图形和流程步骤。 优化布局:利用 AI 自动布局功能,优化图表的外观。 保存和分享:保存图表并与团队成员分享,或导出为 PDF、PNG 等格式。 利用这些 AI 工具,可以快速、高效地创建专业的流程图,满足各种工作和项目需求。但需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-03-18
我需要用deepseek生成参考文献,我需要指令
以下是关于 DeepSeek 生成参考文献的相关指令: 1. 基础指令框架: 四要素模板:如果不知道如何表达,还是可以套用框架指令。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 2. 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 3. 高级调试策略: 模糊指令优化:对于宽泛需求,添加维度约束;对于主观表述,量化标准。 迭代优化法:首轮生成获取基础内容,特征强化加强某段的技术细节描述,风格调整改用特定语气并添加结论部分,最终校验检查时间逻辑一致性和可能的事实性错误。 希望这些信息对您有所帮助。
2025-03-14
我想要打造一个AI手工耿的账号,模仿网络红人手工耿,但是是用AI去做一些有的没的 你这里有可供我参考的资料吗
很抱歉,目前没有关于打造 AI 手工耿账号的直接参考资料。但您可以从以下几个方面入手:首先,深入研究手工耿的风格和特点,包括他的创意、表现形式、语言风格等。其次,利用 AI 技术生成相关的创意内容时,注重独特性和趣味性,结合手工耿的“无用发明”风格。还可以通过 AI 绘画等手段为您的账号创作独特的视觉元素。在账号运营过程中,不断根据用户反馈优化 AI 生成的内容和表现方式。
2025-03-12
生成提示词的提示词
以下是关于生成提示词的相关内容: 生成提示词的思路和方法: 可以根据效果好的图片中的高频提示词去反推效果,结合不同字体效果的描述,打包到一组提示词中。提示词给到 AI 后,AI 会根据给定文字的文义,判断适合的情绪风格,然后给出适合情绪的字体和风格描述、情感氛围等,加上一些质量/品质词,形成输出提示词结构。为了让 AI 更能描述清晰风格,可以先给定多种参照举例。 具体操作步骤: 打开 AI 工具的对话框,将相关提示词完整复制粘贴到对话框。推荐使用 ChatGPT 4o。 当 AI 回复后,发送您想要设计的文字。可以仅发送想要的文字,也可以发送图片(适合有多模态的 AI)让 AI 识别和反推。 将 AI 回复的提示词部分的内容复制到即梦 AI。 对生成提示词的一些观点: 提示词生成提示词并非必要,不一定能生成最好的 Prompt 框架,修改过程可能耗时且不一定能修改好,不如花钱找人写。 一句话生成完整符合需求的 Prompt 非常困难,只能大概给出框架和构思,需要更低成本地调整需求和修改 Prompt。 不同生图工具生成提示词的特点: 即使是简短的描述,生成的提示词也非常细节、专业。 会解析需求,找出核心要点和潜在的诠释点,并给出不同的提示词方案。 提示词构建更多在于增强,而不是发散,生成的内容更符合期望。 同时生成中、英双版本,国内外工具通用无压力。 14 款 AI 生图工具实测对比: 本次实测用到的工具包括国内版的即梦 3.0(https://jimeng.jianying.com/aitool/home)、WHEE(https://www.whee.com)、豆包(https://www.doubao.com/chat)、可灵(https://app.klingai.com/cn/texttoimage/new)、通义万相(https://tongyi.aliyun.com/wanxiang/creation)、星流(https://www.xingliu.art)、LibiblibAI(https://www.liblib.art),以及国外版的相关工具。
2025-04-20
有没有能根据描述,生成对应的word模板的ai
目前有一些可以根据描述生成特定内容的 AI 应用和方法。例如: 在法律领域,您可以提供【案情描述】,按照给定的法律意见书模板生成法律意见书。例如针对商业贿赂等刑事案件,模拟不同辩护策略下的量刑结果,对比并推荐最佳辩护策略,或者为商业合同纠纷案件设计诉讼策略等。 在 AI 视频生成方面,有结构化的提示词模板,包括镜头语言(景别、运动、节奏等)、主体强化(动态描述、反常组合等)、细节层次(近景、中景、远景等)、背景氛围(超现实天气、空间异常等),以及增强电影感的技巧(加入时间变化、强调物理规则、设计视觉焦点转移等)。 一泽 Eze 提出的样例驱动的渐进式引导法,可利用 AI 高效设计提示词生成预期内容。先评估样例,与 AI 对话让其理解需求,提炼初始模板,通过多轮反馈直至达到预期,再用例测试看 AI 是否真正理解。 但需要注意的是,不同的场景和需求可能需要对提示词和模板进行针对性的调整和优化,以获得更符合期望的 word 模板。
2025-04-18
如何自动生成文案
以下是几种自动生成文案的方法: 1. 基于其它博主开源的视频生成工作流进行优化: 功能:通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径:通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频;发布 coze 智能体到飞书多维表格;在多维表格中使用字段捷径,引用该智能体;在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 生成有趣的《图文短句》: 实现原理: 先看工作流:包括第一个大模型生成标题、通过“代码节点”从多个标题中获取其中一个(可略过)、通过选出的标题生成简介、通过简介生成和标题生成文案、将文案进行归纳总结、将归纳总结后的文案描述传递给图像流。 再看图像流:包括提示词优化、典型的文生图。 最终的 Bot 制作以及预览和调试。 3. 腾讯运营使用 ChatGPT 生成文案: 步骤:通过 ChatGPT 生成文案,将这些文案复制到支持 AI 文字转视频的工具内,从而实现短视频的自动生成。市面上一些手机剪辑软件也支持文字转视频,系统匹配的素材不符合要求时可以手动替换。例如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。这类 AI 视频制作工具让普罗大众生产视频变得更轻松上手。
2025-04-15
如何通过输入一些观点,生成精彩的口播文案
以下是通过输入观点生成精彩口播文案的方法: 1. 基于其它博主开源的视频生成工作流进行功能优化,实现视频全自动创建。 效果展示:可查看。 功能:通过表单输入主题观点,提交后自动创建文案短视频,并将创建完成的视频链接推送至飞书消息。 涉及工具:Coze平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径: 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 发布 coze 智能体到飞书多维表格。 在多维表格中使用字段捷径,引用该智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 智能体发布到飞书多维表格: 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 选择发布渠道,重点是飞书多维表格,填写上架信息(为快速审核,选择仅自己可用),等待审核通过后即可在多维表格中使用。 3. 多维表格的字段捷径使用: 创建飞书多维表格,添加相关字段,配置后使用字段捷径功能,使用自己创建的 Coze 智能体。 表单分享,实现填写表单自动创建文案短视频的效果。 4. 自动化推送:点击多维表格右上角的“自动化”,创建所需的自动化流程。 另外,伊登的最新 Deepseek+coze 实现新闻播报自动化工作流如下: 第一步是内容获取,只需输入新闻链接,系统自动提取核心内容。开始节点入参包括新闻链接和视频合成插件 api_key,添加网页图片链接提取插件,获取网页里的图片,以 1ai.net 的资讯为例,添加图片链接提取节点,提取新闻主图,调整图片格式,利用链接读取节点提取文字内容,使用大模型节点重写新闻成为口播稿子,可使用 Deepseek R1 模型生成有吸引力的口播内容,若想加上自己的特征,可在提示词里添加个性化台词。
2025-04-15
小红书图文批量生成
以下是关于小红书图文批量生成的详细内容: 流量密码!小红书万赞英语视频用扣子一键批量生产,这是一个保姆级教程,小白都能看得懂。 原理分析: 决定搞之后,思考生成这种视频的底层逻辑,进行逆推。这种视频由多张带文字图片和音频合成,带文字图片由文字和图片生成,文字和图片都可由 AI 生成,音频由文字生成,文字来源于图片,也就是说,关键是把图片和文字搞出来。 逻辑理清后,先找好看的模版,未找到好看的视频模版,最后看到一个卡片模版,先把图片搞出来,才有资格继续思考如何把图片变成视频,搞不出来的话,大不了不发视频,先发图片,反正图片在小红书也很火。 拆模版: 要抄这种图片,搞过扣子的第一反应可能是用画板节点 1:1 去撸一个,但扣子的画板节点很难用,Pass 掉。用 PS 不行,太死板不灵活,html 网页代码可以,非常灵活。经过 2 个多小时和 AI 的 battle,用 html 代码把图片搞出来了。这里不讲代码怎么写,直接抄就行。要抄,首先要学会拆,不管用什么方式批量生成这样的图片,都必须搞清楚里面有哪些是可以变化的参数,也就是【变量】,如主题、主题英文、阶段、单词数、图片、正文、翻译、普通单词、重点单词等。 想方法: 大概知道批量生成这样的图片需要搞清楚哪些参数,图片用 html 代码搞出来了。但问题是视频怎么搞,这种视频由多张不同的【带文字的图片】生成,比如读到哪句,哪句就高亮起来,图片也可以随着读到的句子变更。最后,视频就是用这样的图片一张张拼起来的。
2025-04-14
ai如何什么生成表格
AI 生成表格通常可以通过以下技术实现: 1. 利用变分自编码器(VAEs)和序列到序列模型(Seq2Seq)等技术生成表格文件、表格公式,并清理、创建、转换和分析表格中的文本数据,例如表格结构设计、数据分析表、表格自动化等。 2. 借助一些办公软件中的 AI 插件,如飞书中的相关插件,先通过 AI 理解图片中的内容并填充到表格列中,然后利用自带插件总结生成相关指令。 此外,在多模态数据生成中,结构化数据生成包括表格生成,多模态合成数据从大类来看有非结构化数据(图片、视频、语音等)和结构化数据(表格等)两大类。非结构化数据生成包括文本生成、图像生成、音频和语音生成、视频生成、3D 生成、合成数据生成等。
2025-04-14
国外免费的动作模仿AI
以下为您介绍国外免费的动作模仿 AI: 在 SD 中,ControlNet 是一个强大的插件,包含姿态约束类预处理器。可以使用扩展图片的方法将图片发送到图生图进行处理,还能使用 tile 模型细化。若无法找到满足需求的动作图片,可在【扩展】【加载扩展列表】中搜索【posex】插件,或拷贝插件文件夹至指定目录并重启软件。在 ControlNet 界面,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了还能重置镜头和动作。 Viggle 是一个有免费额度的 AI 视频工具,其网址为 http://viggle.ai,discord 免费体验地址为 https://discord.com/invite/viggle 。它支持图片+动作视频转视频、图片+文字动作描述转视频、文字转视频,可完成视频换脸。其功能包括/mix、/animate、/ideate、/character、/stylize 等,官方提供了多种动作提示词可供参考,提示词地址为 https://viggle.ai/prompt 。
2025-03-31
视频生成人物动作不准确
目前在视频生成人物动作方面存在不准确的情况。例如,使用 Midjourney 生成时,过多角色(甚至可能是 2 个)的生成效果不佳,对于拟人角色的需求较难满足。像小龙喷火到小兔子举着礼物盒这样的场景,难以生成满意的效果。在让角色做出较大动作(如转头、掉眼泪、抬手等)或更生动的表情变化时,现有技术有限,还需更先进的技术、丰富的数据和强大的计算能力。 解决策略方面,应尽量规避制作需要大动作表现的视频。若无法避免,可尝试制作只涉及小动作的场景,并通过加入台词和场景描述来补充细节和深度,帮助观众更好地理解场景背景和角色心理,增强表现力,以弥补视觉上的不足。 相关技术如 LivePortrait 可以精确控制眼睛和嘴唇的动作,还能无缝拼接多个肖像,将不同人物特征合并成一个视频,确保过渡自然流畅。其使用了不同于主流扩散方法的隐式关键点框架,在计算效率和可控性之间取得平衡,生成的动画质量优于现有的非扩散和扩散模型方法,在 RTX 4090 GPU 上生成速度为每帧 12.8 毫秒。 工作流与模型地址: https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy https://pan.quark.cn/s/8dfd7ace4f05 内容依技术发展更新,请以文档为准:https://xiaobot.net/post/74238a84d2734b2ca195ed2858b24ffe
2025-03-05
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
我想知道目前最新、效果最好、代码和模型开源的动作捕捉算法,也叫做人体姿态估计,是哪篇文章
目前最新、效果较好且代码和模型开源的人体姿态估计(动作捕捉算法)相关的研究有以下两篇: 1. 【SD】最强手部识别,controlnet 新预处理器 dw openpose 作者:白马少年|公众号:【白马与少年】 发布时间:20230813 20:00 原文网址:https://mp.weixin.qq.com/s/_RiKxWy9MXt4DUJIKH5w 介绍:在 controlnet 中,手部识别一直使用的是 openpose 预处理器,但复杂手势有时无法识别。新的 dw openpose 预处理器能完美解决手部识别问题,将其放入特定目录即可使用。但需说明的是,目前这个 DW Pose 只是更精确的 openpose 预处理器,未对 ControlNet 的 openpose 模型做改动。 2. YOLONAS Pose:一个开源的实时人体姿态估计模型 应用场景:基于骨骼标记为基础,适用于智慧体育等场景,可对训练过程的姿态、数据、状态等进行统计和管理。 技术类型:视频、AI 学习模型 简介:主要功能是识别图片和视频中人的姿势,能快速处理图像并实时返回姿态数据,适应不同场景和设备。 主要特点: 实时性能:旨在提供实时的姿态估计,适用于需要即时反馈的应用。 高精度:利用神经网络架构搜索(NAS)提高姿态估计的准确性。 优化的网络结构:NAS 自动测试不同网络结构,找到最优模型。
2024-12-31
midjourney中如何结合A图片的人物和B图片的动作和内容
在 Midjourney 中结合 A 图片的人物和 B 图片的动作和内容,可以使用新上线的“Character Reference”(cref)功能。以下是一些关键方法和示例: 1. 锚定细节:您可以掌控姿势、表情、情感、服装、道具、场景、动作等细节。例如:“Jo is a young woman with blue curly hair, pink sunglasses, and a colorful scarf around her neck. She waits in line at the bank. cref https://my.image.host/joisstanding.jpg”。 2. 让 cref 处理大部分工作:提示无需加强标志性细节,只是“操纵”或“定位”角色。例如:“有人正在银行排队等候。 cref https://my.image.host/joisstanding.jpg”。 3. 只提供场景:如果您的 cref 图像已包含想要的姿势和其他细节,您可以仅描述环境、周围环境、背景或情境,Midjourney 将努力将角色融入场景中。但可能会出现不连贯的结果,此时可尝试使用更高值的样式化,如“s 800”。 需要注意的是,此功能在使用 Midjourney 生成的图像人物时效果最佳,不太适用于真实人物或照片。同时,在 Midjourney V6 的 Web Alpha 版本中,您可以通过拖放或粘贴图像到想象栏,并选择相应图标来设置图像为图像提示、风格参考或角色参考。
2024-11-18
视频导出动作的AI
以下是关于视频导出动作的 AI 相关信息: AI 视频导出方面:普通社交媒体分享选 1080P,需放大选 720P,码率越高越好,可自定义最高 5 万。 Move AI 推出的 Move API 能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据,相关链接为 https://move.ai/api 。
2024-11-05