Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

根据分镜生成连续动漫的ai

Answer

目前根据分镜生成连续动漫可以使用多种 AI 工具和技术,例如:

  • Junie 制作中用到的工具包括 AI 图像生成工具如 Stable Diffusion、Midjourney v5.2、DALL·E,AI 动画工具如 Pika、Runway、Deforum(基于 Stable Diffusion 的开源项目,支持多种动画模式和功能,可以根据文本描述或参考图像和视频生成连续的图像序列,并将这些图像序列拼接成视频),口型同步工具 D-ID,AI 旁白工具 ElevenLabs,剪辑工具 Premiere,文字翻译工具 ChatGPT。此外,也会结合 3D 技术、AE 以及实拍等传统影视制作手段。
  • 阿汤在制作动画短片时,由于 AI 视频生成处于抽盲盒阶段,无法精准判断生成的图片能否生成完美的动作视频,所以决定生成一张合适的图片就直接开始对应动画镜头的生成,若视频无法达到预期效果,及时修改图片、补充镜头。例如生成的分镜图片描述有“Heavy rain hits the grass,close-up of the grass,dark environment,in the style of Hayao Miyazaki --ar 16:9 --v 6.0 --s 250”“A tornado rolls in,dark,Hayao Miyazaki style --ar 16:9 --v 6.0 --s 250”“Dark sky,dark clouds,lightning and thunder,sky close-up,in the style of Hayao Miyazaki --ar 16:9 --v 6.0 --s 250”等。动作戏通常包含快速、连续且复杂的动作序列,AI 在处理复杂动作序列,尤其是模拟人类动作的真实性和流畅性方面仍存在局限性。
Content generated by AI large model, please carefully verify (powered by aily)

References

Junie:首部AI长电影幕后制作全流程揭秘

制作方面,从图像到视频再到文字翻译,Junie用到了多种AI工具——AI图像生成:Stable Diffusion/Midjourney v5.2/DALL·EAI动画:Pika/Runway/Deforum(基于Stable Diffusion的开源项目,支持多种动画模式和功能,可以根据文本描述或参考图像和视频生成连续的图像序列,并将这些图像序列拼接成视频)口型同步:D-ID AI旁白:ElevenLabs剪辑:Premiere文字翻译:ChatGPT据Junie介绍,每个创作者、每个章节都会用到不同的技术,除了AI工具,也会用到3D技术、AE(After Effects)以及实拍等传统影视制作中常见的制片手段,以达成创作者最终想要实现的影片效果。例如,制片人Nem负责的第41章是一场打斗戏。“涉及到武打部分的内容,没办法在Runway直接生成。为此,Nem只能采取真人绿幕实拍+Kaiber(一款AI视频生成工具)的工作流,一人分饰两角,才完成了这场武戏。”工作流:实拍绿幕+Kaiber动作戏通常包含快速、连续且复杂的动作序列。AI在处理复杂的动作序列,尤其是在模拟人类动作的真实性和流畅性方面,仍然存在局限性。如果把动幅较大的场景,交给AI视频工具直接生成,往往只会让人物或画面显得生硬和不自然甚至崩坏。

阿汤:AI短片探索——第一幕(动画篇)

分镜图片这里通过生成尝试,注意到一个事情。因为我们是做动画短片,按照正常动画制作流程,脚本制作完成之后,是画分镜草图,然后再进行动画制作。但因为AI视频生成目前仍然处于抽盲盒阶段,我们无法精准的判断一个生成好的图片是否能够生成较为完美的动作视频生成。所以为了能够对分镜画面进行及时的调整,这里,我决定生成一张合适的图片就直接开始进行对应动画镜头的生成。一旦有视频无法生成预期效果,就及时修改图片,补充镜头。Heavy rain hits the grass,close-up of the grass,dark environment,in the style of Hayao Miyazaki --ar 16:9 --v 6.0 --s 250A tornado rolls in,dark,Hayao Miyazaki style --ar 16:9 --v 6.0 --s 250Dark sky,dark clouds,lightning and thunder,sky close-up,in the style of Hayao Miyazaki --ar 16:9 --v 6.0 --s 250直接使用文生视频,后期需要叠加到镜2的画面上dark,bad environment,After a dark and dilapidated environment after a big storm,a white cat's paw walks on the wet dirt,side shot,close-up of the cat's paw,dim environment,in the style of Hayao Miyazaki --ar 16:9 --niji 6 --s 250

阿汤AI短片探索——第一幕(动画篇)

分镜图片这里通过生成尝试,注意到一个事情。因为我们是做动画短片,按照正常动画制作流程,脚本制作完成之后,是画分镜草图,然后再进行动画制作。但因为AI视频生成目前仍然处于抽盲盒阶段,我们无法精准的判断一个生成好的图片是否能够生成较为完美的动作视频生成。所以为了能够对分镜画面进行及时的调整,这里,我决定生成一张合适的图片就直接开始进行对应动画镜头的生成。一旦有视频无法生成预期效果,就及时修改图片,补充镜头。Heavy rain hits the grass,close-up of the grass,dark environment,in the style of Hayao Miyazaki --ar 16:9 --v 6.0 --s 250A tornado rolls in,dark,Hayao Miyazaki style --ar 16:9 --v 6.0 --s 250Dark sky,dark clouds,lightning and thunder,sky close-up,in the style of Hayao Miyazaki --ar 16:9 --v 6.0 --s 250直接使用文生视频,后期需要叠加到镜2的画面上dark,bad environment,After a dark and dilapidated environment after a big storm,a white cat's paw walks on the wet dirt,side shot,close-up of the cat's paw,dim environment,in the style of Hayao Miyazaki --ar 16:9 --niji 6 --s 250

Others are asking
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
帮我写分镜脚本的提示词
以下是为您提供的分镜脚本提示词相关内容: 分镜提示词的结构通常为:我要做多长时间的视频+要出多少个分镜+每个分镜包含哪些内容+对输出格式有什么要求。 例如: 1. 请把这个故事脚本改写成一个 30 秒时长的广告片分镜脚本,脚本结构包括序号、场景、景别、镜头时长、镜头运动、画面内容、对话旁白和音乐音效。每个分镜拆分细致一些,补充多一些细节,单镜头时长控制在不超过 5 秒,一共拆分 10 个分镜,请把上述分镜脚本转换成 markdown 列表形式输出,第一列是场景,第二列是景别,第三列是镜头时长,第四列是镜头运动,第五列是画面内容,第六列是对话旁白,第七列是音乐音效。 2. 以的冰工厂赛道为例,参考 prompt:请帮我把以下(广告故事)设计成(30)秒的可执行分镜脚本,要求使用不同的景别进行画面切换,并给我(100 字)左右的详细画面描述,并每句都加入(高清,真实感,3D,blender)这些文字,整体节奏(顺畅紧张且有趣):烈日炎炎,一个冰雕的人型雕塑被晒到想要逃离太阳,于是他踩着冰雕的滑板借着融化的水开始冲浪,结果在一个杯子形状的悬崖边不小心坠落,摔成冰块,最后告诉大家这是个冰杯的广告片。 另外,还有影片分镜的示例: |分镜编号|分镜内容描述|人物|情绪|对白或配音| |||||| |1|高中操场,学生们活动|学生群|活跃|无| |2|几个高大的男生围住新生|霸凌者甲、新生|威胁、害怕|霸凌者甲:新来的,懂不懂这里的规矩?| |2||新生|害怕|新生:我...我没有钱。| |3|李宁穿过人群,挡在新生前|李宁、霸凌者|坚定、惊讶|李宁:住手!| |4|霸凌者们一愣,嘲笑李宁|霸凌者乙、李宁|轻蔑、冷静|霸凌者乙:呦,这不是我们班的学霸李宁吗?| |5|水雾涌动,龙头隐约出现|陈涛及其跟班|自信|陈涛:哪吒,你我之间的恩怨,今天该有个了结了。| |6|李宁变身为哪吒,准备战斗|哪吒|决绝|哪吒:为了正义,我绝不退缩!| |7|哪吒与陈涛及其跟班交战|哪吒、陈涛|激烈|无| |8|哪吒保护同学,被击中落水|哪吒、新生|英勇、担忧|无| |9|哪吒爬上岸,召唤神兽|哪吒|坚持|无| |10|陈涛使用现代武器|陈涛|得意|陈涛:哪吒,你的时代已经过去了。| |11|同学们鼓起勇气帮助哪吒|同学们|勇敢|无|
2025-04-12
根据图片加文字描述生成分镜脚本的提示词
以下是一些根据图片加文字描述生成分镜脚本的提示词示例及相关说明: 1. 对于影片《哪吒·龙影之下》的分镜脚本,其提示词包括分镜编号、分镜内容描述、人物、情绪、对白或配音等方面,如“1|高中操场,学生们活动|学生群|活跃|无”。 2. 在商业级 AI 视频广告的分镜创作中,提示词的结构为:要做多长时间的视频、要出多少个分镜、每个分镜包含哪些内容、对输出格式有什么要求。例如“请把这个故事脚本改写成一个 30 秒时长的广告片分镜脚本,脚本结构包括序号、场景、景别、镜头时长、镜头运动、画面内容、对话旁白和音乐音效。每个分镜拆分细致一些,补充多一些细节,单镜头时长控制在不超过 5 秒,一共拆分 10 个分镜”。 3. 在“城市狂想”的图片制作中,针对分镜内容生成了不同风格的提示词,如“远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1”。 希望以上内容能对您有所帮助。
2025-03-17
如何生成指定主题的短视频分镜头的脚本
生成指定主题的短视频分镜头脚本可以参考以下步骤: 1. 确定主题风格和时长,比如丝绸之路的古风主题。 2. 设定故事主线和镜头,例如基于故事剧本及相关资料,按照场景、地点、镜号、画面描述、台词、音效等维度进行填充。 3. 注意画面数量与台词长短的关系,尽可能精简人物对话,提炼重点。主角一句话若有 6 个字,按 3 4 字/秒核算,需 2 秒时长,通常 1 个画面可生成 2 3 秒短视频,台词越长所需画面量越多。 4. 当缺乏画面灵感时,可借助语言大模型,如要求其写好画面描述甚至加上音效需求,多提问多尝试,但最终画面的选取和平衡需进一步思考。 以下为具体示例: 以太空为主题的短视频,如镜头 1:外太空 亚历克斯工作的全景。镜头描述为亚历克斯在太空站外,地球在背景中宁静地照耀,主要角色是亚历克斯,动作是忙碌地修理太空站外部设备,对白是亚历克斯自言自语说“这些维修工作总是那么必要”。 以友情为主题的短视频,如一只白猫和一只灰狼的故事。开端是暴风来袭,白猫狼狈,饥肠辘辘,无处可去,被灰狼盯上。发展是白猫逃跑,灰狼一路猛追,从草坪到巨石,白猫躲进船里。转折是灰狼替白猫挡下掉落的甲板。结局是两人在船舱躲雨,灰狼把鱼给白猫,雨过天晴后走到海边,海边放起烟花。 若已有简单的故事梗概,1 分钟视频大概需要 25 30 个镜头,需写出分镜头脚本,并翻译成英文用于文生图工作,要写清楚画面内容,如景别(远景、全景、中景、近景、特写)和风格(真实影像风格、日本动漫风格、水墨画风格等)。
2025-03-09
我需要的是,根据我给出的文本生成分镜,且可制作对应视频的ai
以下是为您提供的根据给出的文本生成的相关信息: 分镜创作流程和方法: 1. 在歌曲创作完成后,根据音乐进行画面生成。画面分为三类:有歌词部分使用 Midjourney 生成,无歌词部分如前奏使用 SD 制作字体设计,转场部分使用 Deforum 制作。 2. 让 GPT 按照每段歌词生成一系列的 MJ 提示词,作为画面参考,再进行调整和编写。 3. 如开篇部分,需自行构思,如通过弹古筝女子引入,为增加神秘感,从女子背景开始,镜头慢慢拉近。若 MJ 出图不理想,可先使用 DALL·E3 绘制构图,再用垫图方式给到 MJ。 不同案例中的分镜特点: 1. 《心 Heart 创作分享》中,分镜完全根据感觉,强调梦境,主色调为蓝色,提示词末尾加上胶片拍摄、蓝色等关键词。因个人制作,未设置复杂元素和构图,挑图大感觉对即可。 2. 视频化部分:分两个部分,Ai 图生视频部分使用 Runway 和 Dreamina,Runway 完成动态感要求不高但质感趋向实拍的画面,Dreamina 实现高动态幅度画面,如电视机里气球漂浮、心形候鸟飞走等,还通过首尾帧叠加剪辑实现时间流逝和穿越感。 AI 视频生成的应用场景: 1. 专业创作者(艺术家、影视人等):AI 生成能为作品赋予独特风格和想象力,提供灵感,配合高超剪辑技巧和叙事能力可制作出超乎想象的效果。低成本动捕能大幅降低后期制作门槛和成本,自动识别背景生成绿幕、视频主体跟随运动等能辅助视频编辑,为后期制作增加更多空间。目前主要集中在音乐 MV、短篇电影、动漫等方向,一些 AI 视频平台也积极寻求创意合作,为创作者提供免费支持。 2. 自媒体、非专业创作者:这部分人群通常有具体且明确的视频剪辑痛点,如科技、财经、资讯类重脚本内容的视频制作时需花费大量时间找素材和注意版权问题,一些产品已在发力脚本生成分镜、视频,帮助降低制作门槛。不同平台适合不同内容形式,OpusClip 提供的长视频转短视频致力于解决同一素材在不同平台分发导致制作成本升高的痛点。 3. 企业客户:对于资金不足的小企业、非盈利机构,AI 视频生成可大幅缩减成本。
2025-03-06
可以生成分镜和故事板的AI
以下是一些可以生成分镜和故事板的 AI 工具及相关信息: 1. SAGA:是第一款也是最好的剧本创作和故事板应用程序,由针对电影输出而精心调整的最新和最强大的生成式人工智能模型提供支持,包括 GPT4、Claude 3.5 和 Luma Dream Machine。具有精心开发的故事、引人入胜的角色和精心策划的摄影的人工智能短片甚至音乐视频在比赛中表现更好。SAGA 为您提供最佳创意,让您在一个地方完成所有操作,无需购买一系列人工智能工具以及像 Final Draft 或 Storyboarder 这样的应用程序来将其整合在一起。提供 1 个月的 Saga 高级订阅。 2. OpenAI:在春季发布会上,GPT4o 进行了一系列测试,包括一次性出 10 个分镜等。 3. 其他相关工具: Playhouse:使用人工智能为 2D 或 3D 角色制作动画。输入文字,或打开相机并表演。无需再为 3D 角色进行绑定。生成 3D 资产,只需输入文字或上传图像。我们将其转换为 3D。控制 3D 场景中的每个元素。前 5000 名注册用户可享受 1 个月的 Playhouse 独立计划。 Playbook:是一个基于扩散的 3D 场景引擎,利用 ComfyUI 进行图像和视频生成。基于网络的工具+Blender 插件,提供 300 渲染积分。 Tripo:Tripo AI 是由 VAST 推出的生成式 3D 模型,可以在 8 秒内生成带纹理的 3D 网格模型,在 2 分钟内生成详细模型。此外,Tripo 还开发了自动绑定、动画和风格化功能,以使生成的模型更易于在流程中使用。Tripo API 与 ComfyUI 集成良好,可实现迭代和可控流程。Tripo AI 还拥有一个热门的 3D 创作者/开发者社区。Tripo 的最终目标是在即将到来的 3D 时代让每个人都成为超级创作者。提供 1 个月的 Tripo 专业订阅。 在现阶段的应用场景方面: 1. 专业创作者(艺术家、影视人等):AI 生成能够为作品赋予独特风格和想象力,为创作者提供灵感,配合高超的剪辑技巧和叙事能力,便可以制作出超乎想象的效果。低成本动捕更是能够大幅降低后期制作的门槛和成本,自动识别背景生成绿幕、视频主体跟随运动等能够辅助视频编辑,为后期制作增加更多空间。目前该应用主要集中在音乐 MV、短篇电影、动漫等方向。一些 AI 视频平台也积极寻求创意合作,为创作者提供免费支持。 2. 自媒体、非专业创作者:这部分人群通常有着非常具体且明确的视频剪辑痛点。比如科技、财经、资讯类重脚本内容的视频在制作时需花费大量时间寻找视频素材、还需注意视频版权问题。一些产品(Invideo AI、Pictory)已经在发力脚本生成分镜、视频,帮助创作者降低视频素材制作门槛。Gamma AI 已经实现了文章高效转 PPT 的能力,若能结合 Synthesia、HeyGen AI、DID 等产品的 Avatar、语音生成能力也可快速转化为视频内容。不同平台适合不同内容形式,创作者想要将同一个素材在不同平台分发就意味着制作成本的升高。而 OpusClip 提供的长视频转短视频致力于解决这一痛点。 3. 企业客户:对于没有足够视频制作资金的小企业、非盈利机构来说,AI 视频生成可以为其大幅缩减成本。
2025-02-25
用coze分解短视频分镜
以下是关于用 Coze 分解短视频分镜的详细内容: 一、Coze 智能体创建 1. “开始”节点 共有 4 个输入变量,分别为: idea_txt:主题观点 left_to_txt:画面左上角的文字 right_to_txt:画面右上角的文字 img_prmpot:画面中间图片生成提示词 注意:这 4 个变量名称要和智能体中提示词的变量对应一致,方便接收用户传入的参数。 2. “大模型”节点 使用目前大家公认的 DeepSeek R1 模型。 提示词要求不复杂,只要说出需求即可,格式可用大白话说出来。 3. “文本”节点 为了将文案分句,每一句要生图、配音。 选择按“句号”分句,具体可根据文案格式选择不同方式。 4. “图像生成”节点 使用官方插件,模型选“LOGO 设计”。 若要生成全景图,此插件效果欠佳,建议选其它插件。 5. “抠图节点” 将上个节点生成的图片进行抠图。 二、概述 基于其他博主开源的视频生成工作流,做了一些功能优化,实现视频全自动创建。感谢开源的力量,现写一篇教程供大家参考。 三、先看效果 四、功能 通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 五、涉及工具 1. Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成) 2. 飞书(消息) 3. 飞书多维表格(字段捷径、自动化流程) 六、大体路径 1. 通过 Coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 2. 发布 Coze 智能体到飞书多维表格。 3. 在多维表格中使用字段捷径,引用该智能体。 4. 在多维表格中创建自动化流程,推送消息给指定飞书用户。
2025-02-23
推荐一款根据自拍照生成动漫风格头像的网站
以下为您推荐使用 Midjourney 网站根据自拍照生成动漫风格头像的方法: 背景: 之前制作过相关视频,教大家从零开始使用 Midjourney 并通过简单提示词生成图片。今天教您利用 Midjourney 的以图绘图功能生成迪斯尼卡通风格头像。 操作: 1. 选择一张满意的自拍照,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取图片,发送(记得点击回车或发送按钮)。 图片会上传到服务器并生成唯一链接,点击图片,在浏览器中打开,复制链接。 2. 复杂提示词: 如果觉得简单提示词不够好,可以使用更复杂的提示词,如:Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 效果会因提示词和照片不同而有所差异。 若对照片风格不满意,可更换新照片重新生成。 若觉得 Disney 风格太过卡通,可把提示词中的 Disney 换成 Pixar;若为女孩,把 boy 换成 girl。 每次生成 4 张图片,对某张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。 3. 简单提示词: 在聊天窗口输入/imainge 找到/imagine prompt,把刚才的链接放进去,然后空格,加一些提示词(以英文逗号分隔),最后加上设置参数。 设置参数: iw 1.5 是设置参考图片的权重,数值越高与参考图片越接近,默认是 0.5,最大是 2,可选择中间值调整。 s 500 设置风格强度、个性化、艺术性,数字越大,更有创造力和想象力,可设置为 0 1000 间任意整数。 v 5 是指用 Midjourney 的第 5 代版本,这一代最真实,目前 v5 需要订阅付费,不想付费可以使用v 4。 no glasses 指不戴眼镜,若不喜欢戴眼镜的图片,可加上此设置。 完整的提示词如下(替换您的 png 图片地址):simple avatar,Disney boy,3d rendering,iw 1.5s 500v 5 。若不满意,可调整s 和iw 的值多次尝试。 如果您还没有 Midjourney 账号,或者还不懂基础操作,可以看之前的教程:
2025-03-31
照片转动漫的工具
以下为一些照片转动漫的工具及相关信息: 1. VIGGLE: 是一款创新的可控视频生成平台,基于 JST1 技术,允许用户自由创建和控制 3D 角色的动作,在游戏开发、动画制作及 VR/AR 等领域有巨大潜力。 Viggle AI 是利用骨骼动画将图片转化为一致性角色动画的工具,简化了动画制作流程。 体验地址:https://www.viggle.ai/ 官方 Discord:https://discord.gg/viggle 操作方式(以网页端举例): Upload a character image of any size.上传任意尺寸的角色图像。 For better results,use a fullbody photo with a clean background.为了获得更好的效果,请使用背景干净的全身照片。 Image size图像大小(最大 10MB) 您上传的照片必须符合社区规则。 2. 莱森: 利用一致性 MJ 出海马体写真的教程。 用醒图(英文版叫做 hypic)或者美图秀秀等 App 调整脸部,拖拖修图进度条就好了。 关注醒图【人像>面部重塑>面部>比例】,调整上庭、中庭、下庭。 在转绘部分,照片>Minecraft 风格幅度变化大时,若sw 风格权重拉满仍复制不了像素小人风格,可能是cw 太高,调低 cw 可能成功复制。 cref 和 sref 同时参考多张 url 时,上传同一个人不同角度的照片,容易使结果畸形。 若 MJ 直出的皮肤缺乏质感,可打开醒图【人像>手动美颜>皮肤肌理】。 若想快速调整光源,可试试 Luminar,可官方下载购买完整版,或在 macos 订阅 setapp 使用有基础功能的 Luminar 版本。 3. 个性: 操作: 复杂提示词,如:Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 不同照片生成,若对照片风格不满意可更换照片使用相同提示词重新生成。 其他调整,如觉得 Disney 风格太过卡通,可把提示词里的 Disney 换成 Pixar,若为女孩,可把 boy 换成 girl。每次生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。
2025-03-19
文案生成动漫
以下是为您提供的关于文案生成动漫的相关信息: Anifusion 工具: 这是一款基于人工智能的在线工具,网址为 https://anifusion.ai/ ,其 Twitter 账号为 https://x.com/anifusion_ai 。 主要功能: AI 文本生成漫画:输入描述性提示,AI 生成漫画页面或图像。 直观的布局工具:提供预设模板,可自定义漫画布局。 强大的画布编辑器:在浏览器中优化和完善 AI 生成的作品。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型实现不同风格和效果。 商业使用权:用户对创作作品拥有完整商业使用权。 使用案例: 独立漫画创作。 快速原型设计。 教育内容创作。 营销材料制作。 粉丝艺术和同人志创作。 优点:非艺术家也能轻松创作漫画,基于浏览器无需额外软件,具备快速迭代和原型设计能力,拥有创作的全部商业权利。 利用 AI 批量生成、模仿和复刻《小林漫画》: 需求分析:选用扣子搭建工作流,解决国内可直接使用且批量生产的需求,可能需牺牲一定质量的文案和图片效果。 批量生成句子:建议一次不要生成太多,如设置一次生成五句。 句子提取:将生成的句子逐个提取,针对每个句子画图。 图片生成:根据句子结合特有画风等描述绘图。 图片和句子结合:由于扣子工作流环境缺少相关包,可替换为搞定设计或使用 PS 脚本处理图片。 输入观点一键生成文案短视频: 概述:基于其他博主开源的视频生成工作流进行功能优化,实现视频全自动创建。 功能:通过表单输入主题观点,自动创建文案短视频,并推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径: 通过 Coze 创建智能体,创建工作流,使用 DeepSeek R1 创建文案和视频。 发布 Coze 智能体到飞书多维表格。 在多维表格中使用字段捷径引用智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。
2025-03-16
出图是动漫/真人有什么区别和需要注意的点?
动漫出图和真人出图有以下区别和需要注意的点: 版权和法律意识:对于知名动漫角色的使用,要特别注意版权和法律问题。 模型和文件:LORA 在提炼图片特征方面功能强大,其文件通常有几十上百兆,承载的信息量远大于 Embedding,在还原真人物品时,LORA 的细节精度更高。下载的 LORA 需放在特定文件夹,使用时要注意作者使用的大模型,通常配套使用效果最佳,同时还需加入特定触发词保证正常使用。 提示词:设置文生图提示词时,正向提示词和负向提示词的准确设定对出图效果有重要影响。 参数设置:包括迭代步数、采样方法、尺寸等参数的合理设置,会影响出图的质量和效果。
2025-03-16
动漫脸部修复
以下是关于动漫脸部修复的相关内容: GFPGAN 面部修复: 找一张模糊人像进行修复,其他参数不变,直接将 GFPGAN 参数拉到 1 即可。面部修复效果显著,但只能修复脸部,头发、衣服、背景等无变化。 背景去除: 需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好之后重启,就有选项框。 测试时模型选第一个 u2net,直接点击生成。抠图效果不错但边缘轮廓可能有黑边,用时 2.86 秒。 去掉黑边可点击后面的 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,就能得到无黑边图像。 点击按钮还可直接生成蒙版。有专门做服装抠图和动漫抠图的模型。 手部修复: 对于动漫人物手部修复,先在 3D 骨架模型编辑器中手动调整还原骨架,若为写实人物可使用 openpose 预处理器进行姿态检测。 来到深度图库,修改尺寸并载入骨架图,选择合适手势添加,可发送到 controlnet。 启用 controlnet 时选择相应预处理器,在图生图中进行手部局部重绘,绘制蒙版,可一只手一只手调整,之后在 ps 中使用“创成式填充”修补衔接区域。 SD 新手入门图文教程中的相关内容: 放大算法中,Latent 在许多情况下效果不错,但重绘幅度小于 0.5 效果不佳,ESRGAN_4x、SwinR 4x 对 0.5 以下重绘幅度支持较好。 Hires step 表示进行这一步时计算的步数。 Denoising strength 表现为生成图片对原始输入图像内容的变化程度,一般阈值 0.7 左右,超过 0.7 与原图基本无关,0.3 以下稍作修改。 面部修复可修复人物面部,但非写实风格人物开启可能导致面部崩坏。
2025-03-13
我想用ai动漫人物唱歌
以下是一些可以帮助您实现用 AI 动漫人物唱歌的相关信息和资源: 在 AI 图像处理方面,有一些项目可以将图像进行动漫化处理,例如卡通头像制作等。 在音频与音乐制作方面,有专属歌曲创作、声音克隆、AI 唱歌等项目。比如制作专属歌曲、声音克隆/视频对口型等。 腾讯 AniPortrait 可以根据音频和静态人脸图片生成逼真的动态视频,支持多种语言、面部重绘、头部姿势控制。相关链接:https://github.com/ZejunYang/AniPortrait 、https://arxiv.org/abs/2403.17694 、https://x.com/imxiaohu/status/1772965256220045659?s=20 。 Hedra Studio 推出的 Character3 AI 支持全身动态与情感控制,能唱歌、说话甚至表演。
2025-03-12
生成提示词的提示词
以下是关于生成提示词的相关内容: 生成提示词的思路和方法: 可以根据效果好的图片中的高频提示词去反推效果,结合不同字体效果的描述,打包到一组提示词中。提示词给到 AI 后,AI 会根据给定文字的文义,判断适合的情绪风格,然后给出适合情绪的字体和风格描述、情感氛围等,加上一些质量/品质词,形成输出提示词结构。为了让 AI 更能描述清晰风格,可以先给定多种参照举例。 具体操作步骤: 打开 AI 工具的对话框,将相关提示词完整复制粘贴到对话框。推荐使用 ChatGPT 4o。 当 AI 回复后,发送您想要设计的文字。可以仅发送想要的文字,也可以发送图片(适合有多模态的 AI)让 AI 识别和反推。 将 AI 回复的提示词部分的内容复制到即梦 AI。 对生成提示词的一些观点: 提示词生成提示词并非必要,不一定能生成最好的 Prompt 框架,修改过程可能耗时且不一定能修改好,不如花钱找人写。 一句话生成完整符合需求的 Prompt 非常困难,只能大概给出框架和构思,需要更低成本地调整需求和修改 Prompt。 不同生图工具生成提示词的特点: 即使是简短的描述,生成的提示词也非常细节、专业。 会解析需求,找出核心要点和潜在的诠释点,并给出不同的提示词方案。 提示词构建更多在于增强,而不是发散,生成的内容更符合期望。 同时生成中、英双版本,国内外工具通用无压力。 14 款 AI 生图工具实测对比: 本次实测用到的工具包括国内版的即梦 3.0(https://jimeng.jianying.com/aitool/home)、WHEE(https://www.whee.com)、豆包(https://www.doubao.com/chat)、可灵(https://app.klingai.com/cn/texttoimage/new)、通义万相(https://tongyi.aliyun.com/wanxiang/creation)、星流(https://www.xingliu.art)、LibiblibAI(https://www.liblib.art),以及国外版的相关工具。
2025-04-20
有没有能根据描述,生成对应的word模板的ai
目前有一些可以根据描述生成特定内容的 AI 应用和方法。例如: 在法律领域,您可以提供【案情描述】,按照给定的法律意见书模板生成法律意见书。例如针对商业贿赂等刑事案件,模拟不同辩护策略下的量刑结果,对比并推荐最佳辩护策略,或者为商业合同纠纷案件设计诉讼策略等。 在 AI 视频生成方面,有结构化的提示词模板,包括镜头语言(景别、运动、节奏等)、主体强化(动态描述、反常组合等)、细节层次(近景、中景、远景等)、背景氛围(超现实天气、空间异常等),以及增强电影感的技巧(加入时间变化、强调物理规则、设计视觉焦点转移等)。 一泽 Eze 提出的样例驱动的渐进式引导法,可利用 AI 高效设计提示词生成预期内容。先评估样例,与 AI 对话让其理解需求,提炼初始模板,通过多轮反馈直至达到预期,再用例测试看 AI 是否真正理解。 但需要注意的是,不同的场景和需求可能需要对提示词和模板进行针对性的调整和优化,以获得更符合期望的 word 模板。
2025-04-18
如何自动生成文案
以下是几种自动生成文案的方法: 1. 基于其它博主开源的视频生成工作流进行优化: 功能:通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径:通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频;发布 coze 智能体到飞书多维表格;在多维表格中使用字段捷径,引用该智能体;在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 生成有趣的《图文短句》: 实现原理: 先看工作流:包括第一个大模型生成标题、通过“代码节点”从多个标题中获取其中一个(可略过)、通过选出的标题生成简介、通过简介生成和标题生成文案、将文案进行归纳总结、将归纳总结后的文案描述传递给图像流。 再看图像流:包括提示词优化、典型的文生图。 最终的 Bot 制作以及预览和调试。 3. 腾讯运营使用 ChatGPT 生成文案: 步骤:通过 ChatGPT 生成文案,将这些文案复制到支持 AI 文字转视频的工具内,从而实现短视频的自动生成。市面上一些手机剪辑软件也支持文字转视频,系统匹配的素材不符合要求时可以手动替换。例如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。这类 AI 视频制作工具让普罗大众生产视频变得更轻松上手。
2025-04-15
如何通过输入一些观点,生成精彩的口播文案
以下是通过输入观点生成精彩口播文案的方法: 1. 基于其它博主开源的视频生成工作流进行功能优化,实现视频全自动创建。 效果展示:可查看。 功能:通过表单输入主题观点,提交后自动创建文案短视频,并将创建完成的视频链接推送至飞书消息。 涉及工具:Coze平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径: 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 发布 coze 智能体到飞书多维表格。 在多维表格中使用字段捷径,引用该智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 智能体发布到飞书多维表格: 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 选择发布渠道,重点是飞书多维表格,填写上架信息(为快速审核,选择仅自己可用),等待审核通过后即可在多维表格中使用。 3. 多维表格的字段捷径使用: 创建飞书多维表格,添加相关字段,配置后使用字段捷径功能,使用自己创建的 Coze 智能体。 表单分享,实现填写表单自动创建文案短视频的效果。 4. 自动化推送:点击多维表格右上角的“自动化”,创建所需的自动化流程。 另外,伊登的最新 Deepseek+coze 实现新闻播报自动化工作流如下: 第一步是内容获取,只需输入新闻链接,系统自动提取核心内容。开始节点入参包括新闻链接和视频合成插件 api_key,添加网页图片链接提取插件,获取网页里的图片,以 1ai.net 的资讯为例,添加图片链接提取节点,提取新闻主图,调整图片格式,利用链接读取节点提取文字内容,使用大模型节点重写新闻成为口播稿子,可使用 Deepseek R1 模型生成有吸引力的口播内容,若想加上自己的特征,可在提示词里添加个性化台词。
2025-04-15
小红书图文批量生成
以下是关于小红书图文批量生成的详细内容: 流量密码!小红书万赞英语视频用扣子一键批量生产,这是一个保姆级教程,小白都能看得懂。 原理分析: 决定搞之后,思考生成这种视频的底层逻辑,进行逆推。这种视频由多张带文字图片和音频合成,带文字图片由文字和图片生成,文字和图片都可由 AI 生成,音频由文字生成,文字来源于图片,也就是说,关键是把图片和文字搞出来。 逻辑理清后,先找好看的模版,未找到好看的视频模版,最后看到一个卡片模版,先把图片搞出来,才有资格继续思考如何把图片变成视频,搞不出来的话,大不了不发视频,先发图片,反正图片在小红书也很火。 拆模版: 要抄这种图片,搞过扣子的第一反应可能是用画板节点 1:1 去撸一个,但扣子的画板节点很难用,Pass 掉。用 PS 不行,太死板不灵活,html 网页代码可以,非常灵活。经过 2 个多小时和 AI 的 battle,用 html 代码把图片搞出来了。这里不讲代码怎么写,直接抄就行。要抄,首先要学会拆,不管用什么方式批量生成这样的图片,都必须搞清楚里面有哪些是可以变化的参数,也就是【变量】,如主题、主题英文、阶段、单词数、图片、正文、翻译、普通单词、重点单词等。 想方法: 大概知道批量生成这样的图片需要搞清楚哪些参数,图片用 html 代码搞出来了。但问题是视频怎么搞,这种视频由多张不同的【带文字的图片】生成,比如读到哪句,哪句就高亮起来,图片也可以随着读到的句子变更。最后,视频就是用这样的图片一张张拼起来的。
2025-04-14
ai如何什么生成表格
AI 生成表格通常可以通过以下技术实现: 1. 利用变分自编码器(VAEs)和序列到序列模型(Seq2Seq)等技术生成表格文件、表格公式,并清理、创建、转换和分析表格中的文本数据,例如表格结构设计、数据分析表、表格自动化等。 2. 借助一些办公软件中的 AI 插件,如飞书中的相关插件,先通过 AI 理解图片中的内容并填充到表格列中,然后利用自带插件总结生成相关指令。 此外,在多模态数据生成中,结构化数据生成包括表格生成,多模态合成数据从大类来看有非结构化数据(图片、视频、语音等)和结构化数据(表格等)两大类。非结构化数据生成包括文本生成、图像生成、音频和语音生成、视频生成、3D 生成、合成数据生成等。
2025-04-14