Navigate to WaytoAGI Wiki →
Home/All Questions
文字生成故事视频
以下是关于文字生成故事视频的相关信息: Sora 具有文字生成视频的功能,时长可达 60 秒,还能进行图片生成视频、扩展视频等操作。 案例中有把学生写的函数小故事变成动画视频,如深圳福田区梅山中学梁玉老师使用百度文库的 AI 有声画本导入故事生成。 将小说转换成 AI 视频通常包括文本分析、角色与场景生成、视频编辑与合成等步骤。可利用的工具及网址有: Stable Diffusion(SD):一种 AI 图像生成模型,网址: Midjourney(MJ):另一个 AI 图像生成工具,网址: Adobe Firefly:Adobe 的 AI 创意工具,网址: Pika AI:文本生成视频的 AI 工具,网址: Clipfly:一站式 AI 视频生成和剪辑平台,网址: VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能,网址: 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具,网址: 故事 AI 绘图:小说转视频的 AI 工具,网址:
2025-04-09
视频提词
以下是关于视频提词的相关内容: Pikadditions 功能: 1. 上传基础视频: 点击页面下方的【Pikaddition】按钮。 拖拽或点击上传本地视频。 若自己没有视频,可在“templates”板块使用官方示例视频做测试。 2. 添加主角图片:点击【Upload Image】上传角色图片文件。 3. 编写视频提示词: 若需要参考角色在视频里的相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。 Pika 会提供一段默认 prompt,若无特殊想法,可直接使用。 建议在自己的提示词尾部加入官方提供的默认提示词,效果会更好。 该功能提示词公式参考: 事件驱动句式:As... 空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the... 动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching... Sora 相关: 1. Specify Visual Details:包括颜色、灯光、相机角度和风格等任何视觉元素的描述。提供的细节越多,输出就越接近您的愿景。 2. Mention Desired Length and Format:如果您对特定长度(以秒或分钟为单位)或格式(宽高比、分辨率)有想法,请提及。这对于 AI 生成符合您要求的内容至关重要。 3. Outline Audio Preferences:如果您的视频需要特定的音频元素,如背景音乐、旁白或音效,请详细描述。指定您是希望 AI 生成这些元素还是您自己提供。 4. Consider Ethical and Copyright Guidelines:确保您的提示符合道德标准和版权法。避免请求侵犯版权或涉及没有适当背景的敏感主题。 5. 提供了一个视频 AI 提示的模板和 Sora 的示例提示,您可以根据具体需求和使用的视频 AI 工具的能力进行调整。 Vidu Prompt 关键词: 基础提示词:A melancholic teddy bear,dressed in rugged attire with a widebrimmed hat and a bandolier,gazes at the camera,its lips trembling slightly as it exhales a puff of smoke.The warm glow of its cigarette illuminates its face,casting shadows that emphasize its somber mood.Its paws rest on the porch railing in a relaxed pose,but its button eyes betray a deeper sadness.As it slowly turns its head to the left,its gaze shifts to the distant horizon,lost in thought.The lighting is low,with cool blue tones contrasting the warm light from the cigarette,enhancing the mood of quiet reflection.The setting,a porch with wooden panels and a window behind it,completes the Western ambiance,capturing a moment of introspective solitude amidst the vast,open landscape.
2025-04-09
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,处理方式变得更加便捷高效。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,如 GPT 4O 只需要一句话,就可以实现部分需求。 在具体的修复方法中,例如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可只给场景方向,让 AI 自行决定颜色。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只需十几个基础节点就能实现同样效果甚至更好。一般先确认放大倍数,然后根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和鲜艳色彩增强,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-09
扣子如何改变回复的语言风格
要改变回复的语言风格,可以参考以下方法: 1. 对于风格类的 Bot,提示词中的 Fewshot 对输出风格影响较大,可先找预期相关人的风格示例并修改。 2. 在 Examples 里使用特定开头的词,如“Fword”,开头字符会显著影响输出内容。 3. 加星号的部分代表加粗,根据自注意力机制可提升提示词中的关键词效果。 4. 能力方面可使用自带的 Bing 搜索和图片识别,根据需求选择,如避免 Webpilot 以免语气变温和。 5. 可根据需求决定是否加入绘画功能。 6. 防护词可参考,但没有完美的防御提示词。 7. 回复风格可来自自己的群聊机器人的风格嫁接。 8. 最后加入一些小 Tips 进一步提升个性化效果。 在场景方面,可以问 Bot 对内容的看法,或让其帮忙分析事情以获得更接地气的表述。 另外,编写提示时: 简单任务场景: 设定人物,描述 Bot 所扮演的角色或职责、回复风格。 描述功能和工作流程,约定 Bot 在不同场景下的回答方式,强调调用工具以保证回复准确性,也可为 Bot 提供回复格式示例。 指示 Bot 在指定范围内回答。 复杂任务场景:推荐使用结构化格式编写提示,扣子支持将 Bot 的提示自动优化成结构化内容,可直接使用或修改。
2025-04-09
AI 领导力课程在哪里可以看到
您可以在以下网址查看 AI 领导力课程:https://www.ailingdaoli.com/ 。该课程包含多个核心模块、精选课时、实践价值等内容,如 AI 思维、AI 素养的培养,涵盖逻辑、抽象、创造等思维的训练,以及对课程大纲、学习效果、学习收获、课程价格等方面的介绍。
2025-04-09
想创建一个对话问答形式的课程智能体
以下是创建一个对话问答形式的课程智能体的相关内容: 一、创建智能体 1. 知识库 手动清洗数据:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据,自动清洗数据可能会出现数据不准的情况。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入后可编辑修改和删除,添加 Bot 后可在调试区测试效果。 本地文档:本地 word 文件,注意拆分内容以提高训练数据准确度。画小二 80 节课程分为 11 个章节,不能一股脑全部放进去训练,应先将 11 章的大章节名称内容放进来,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到,否则获取不到 API。 二、智谱 BigModel 共学营活动分享 活动内容包括使用 BigModel 搭建智能体并接入微信机器人,过程为将调试好的智能体机器人拉入微信群,由老师提问,机器人回答,挑选出色回答整理成问卷,群成员投票,根据得票数确定奖项。一等奖得主分享了对活动的理解和实践,包括从题出发的分析,认为考验机器人对问题的理解和回答准确性,真实对话场景一般为完整句子回复,根据回答真实性和有趣程度评分,可使用弱智吧问题测试提示词生成效果。 三、名字写对联教学——优秀创作者奖,百宝箱智能体 1. 智能体类型的选择:建议选择工作流的对话模式,支持工作流编排和携带历史对话记录,创建后切换为对话模式,注意在调整工作流节点前切换,否则会清空重置。 2. 确认分支情况:根据需求分析有两个特定分支(根据名字和祝福写对联、根据幸运数字写对联)和一个默认分支。 3. 用户意图识别:通过理解用户意图走不同分支,注意将意图介绍写清楚准确。 4. 幸运数字分支:用代码分支获取用户输入数字,匹配知识库并做赏析,代码中有容错机制。 5. 名字写祝福:根据用户输入的名字和祝福信息,提示词生成对应对联并输出,主要是提示词调试。 6. 通用兜底回复:在用户不符合前两个意图时进行友好回复,匹配知识库,结合匹配结果、历史记录和当前输入输出符合对话内容的回复。 7. 知识库:使用大模型生成 100 对对联,好看、经典、有意义。
2025-04-09
有什么新的技术,比如MCP这种
以下是关于 MCP 的相关信息: MCP 是由 Anthropic 提出的一种通用接口协议。 其本质是一个试图解决让 AI 模型以标准化、可扩展方式与外部世界交互的根本性问题的通用接口协议。 提供了统一的抽象层,将所有外部资源(工具、API、数据库等)抽象为“上下文提供者”,使模型能自然地使用各种工具和访问各类数据。 在技术层面,AI Agent 的发展出现了两条技术路线,其中之一是以自主决策为核心的 LLM 控制流,另一个是以工作流(Workflow)编排为重点的工具集成系统,前者代表了 AGI 的探索方向,后者则加速了 AI 落地应用。 MCP 相关的应用和特点: 在 Windsurf Wave3 中,MCP 协议让 AI 直接读取控制台错误,实现自动化网页调试,不用复制粘贴,还有 Tab 智能跳转、Turbo 模式等新功能。 对于普通人而言,MCP 等于新的“流量入口+服务市场”,普通人能够借助 AI 完成复杂工作并获得收益。 新的生态应运而生,包括内容来源、接入标准、大模型调用层、用户界面、清算与广告系统等模块,每个模块都有对应的角色和可变现方式。
2025-04-09
我想找一个可以把服装图片用ai的方式直接‘穿’在另一张图片的模特身上
以下是两种可以将服装图片用 AI 的方式“穿”在另一张图片的模特身上的方法: 方法一:使用 ComfyUI GeminiAPI 1. 在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,网址为:https://aistudio.google.com/apikey?hl=zhcn 。 2. 安装相关依赖,根据使用的情况选择手动安装(如果使用 ComfyUI 便携版或自己的 Python 环境)或通过 ComfyUI Manager 安装。 手动安装:安装相关依赖。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,在 Manager 中搜索“Gemini API”,然后点击安装按钮。 方法二:使用【SD】 1. 进行 SAM 模型分割:来到图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 2. 处理可能出现的问题:如蒙版区域较大导致的衔接问题,可以通过降低重绘幅度或添加一个 openpose 来控制人物的身体,得到正确的姿势。 3. 选择合适的重绘功能:除了使用图生图的局部重绘,还可以使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体效果可自行试验选择。
2025-04-09
天工 ai 有什么特点
天工 AI 具有以下特点: 具备 AI 对话能力。 能够进行 20 万长上下文处理、联网总结。 在数据收集与可视化方面有一定表现。 具有长文本上下文处理和指令遵循的能力。 能够捕捉不同任务和语言之间的共享特性,进行统一表示。
2025-04-09
如何制作一个只要输入主题内容,就可以制作文案和视频的工作流
以下是制作一个只要输入主题内容,就可以制作文案和视频的工作流的方法: 概述: 基于其他博主开源的视频生成工作流进行功能优化,实现视频全自动创建,并写了教程供大家参考。 先看效果: 可查看 功能: 通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具: 1. Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成) 2. 飞书(消息) 3. 飞书多维表格(字段捷径、自动化流程) 大体路径: 1. 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 2. 发布 coze 智能体到飞书多维表格。 3. 在多维表格中使用字段捷径,引用该智能体。 4. 在多维表格中创建自动化流程,推送消息给指定飞书用户。 Coze 智能体创建: 1. “开始”节点: 共有 4 个输入变量,分别为:idea_txt(主题观点)、left_to_txt(画面左上角的文字)、right_to_txt(画面右上角的文字)、img_prmpot(画面中间图片生成提示词)。注意这 4 个变量名称要和智能体中提示词的变量对应一致,方便接收用户传入的参数。 2. “大模型”节点: 使用 DeepSeek R1 模型,提示词要求不复杂,说出需求即可,格式可用大白话说出来。 3. “文本”节点: 为将文案分句,每一句要生图、配音。选择按“句号”分句,具体可根据文案格式选择不同方式。 4. “图像生成”节点: 使用官方插件,模型选“LOGO 设计”。若要生成全景图,此插件效果欠佳,建议选其它插件。 5. “抠图节点”: 将上个节点生成的图片进行抠图。
2025-04-09