Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想做视频二创,比如把视频背景换掉,人物上的衣服换掉,请给我推荐一下相关AI工具

Answer

以下是为您推荐的一些用于视频二创,如更换视频背景、人物衣服的相关 AI 工具:

  1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画。Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。
    • GitHub:https://github.com/novitalabs/AnimateAnyone
    • API:https://novita.ai/playground#animate-anyone
    • https://x.com/imxiaohu/status/1796191458052944072
  2. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。
    • https://x.com/imxiaohu/status/1796019244678906340
  3. 在进行视频二创时,若需要更精确的蒙版,比如人物的眼睛或身上的配饰等,可以使用 segment anything 中的 GroundingDINO。启用 GroundingDINO 后,AI 会自动下载模型,也可在没有魔法的情况下到云盘直接下载,放到指定文件目录下“……sd-webui-aki-v4.2\extensions\sd-webui-segment-anything\models\grounding-dino”。在检测提示词中输入相关内容,AI 可根据语义分割自动检测并设置好蒙版。还能通过预览箱体得到部分编号进行单一调整。比如给人物换背景时,加载生成的背景蒙版,选择合适的大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”,若有需要还可进行后续细化和 PS 修复。
Content generated by AI large model, please carefully verify (powered by aily)

References

XiaoHu.AI日报

?Xiaohu.AI日报「5月30日」✨✨✨✨✨✨✨✨1⃣️?️山寨版阿里AnimateAnyone开源:利用图像和视频中的人物姿势来合成动画。Novita AI开源并提供API支持。提供照片和视频,即可自动生成动画。?GitHub:https://github.com/novitalabs/AnimateAnyone?API:https://novita.ai/playground#animate-anyone?https://x.com/imxiaohu/status/17961914580529440722⃣️?ViViD视频虚拟试穿技术:阿里巴巴开发,可以替换视频中人物的衣服。生成真实自然的视频,支持多种服装类型。在视觉质量、时间一致性和细节保留方面表现优异。?https://x.com/imxiaohu/status/17960192446789063403⃣️?udio-130音乐生成模型:Udio新推出,生成2分钟的音频,提升曲目连贯性和结构。新增高级控制功能:随机种子、剪辑时间、提示词或歌词强度调节。?详细:https://xiaohu.ai/p/8738?https://x.com/imxiaohu/status/17959999028306292494⃣️?Codestral代码生成模型:Mistral AI推出,支持80多种编程语言,包括Python、Java、C等。自动完成代码、编写测试,并能填补未完成的代码部分。拥有32k上下文窗口,在多项基准测试中表现出色。?详细:https://mistral.ai/news/codestral/?https://x.com/imxiaohu/status/17959873507131929375⃣️?Suno音乐演示:新视频展示从任何声音创作歌曲。VOL-2:古典钢琴加法国手风琴,由钢琴家兼工程师Anessa表演。?https://x.com/imxiaohu/status/1795976717905043467

XiaoHu.AI日报

?Xiaohu.AI日报「5月30日」✨✨✨✨✨✨✨✨1⃣️?️山寨版阿里AnimateAnyone开源:利用图像和视频中的人物姿势来合成动画。Novita AI开源并提供API支持。提供照片和视频,即可自动生成动画。?GitHub:https://github.com/novitalabs/AnimateAnyone?API:https://novita.ai/playground#animate-anyone?https://x.com/imxiaohu/status/17961914580529440722⃣️?ViViD视频虚拟试穿技术:阿里巴巴开发,可以替换视频中人物的衣服。生成真实自然的视频,支持多种服装类型。在视觉质量、时间一致性和细节保留方面表现优异。?https://x.com/imxiaohu/status/17960192446789063403⃣️?udio-130音乐生成模型:Udio新推出,生成2分钟的音频,提升曲目连贯性和结构。新增高级控制功能:随机种子、剪辑时间、提示词或歌词强度调节。?详细:https://xiaohu.ai/p/8738?https://x.com/imxiaohu/status/17959999028306292494⃣️?Codestral代码生成模型:Mistral AI推出,支持80多种编程语言,包括Python、Java、C等。自动完成代码、编写测试,并能填补未完成的代码部分。拥有32k上下文窗口,在多项基准测试中表现出色。?详细:https://mistral.ai/news/codestral/?https://x.com/imxiaohu/status/17959873507131929375⃣️?Suno音乐演示:新视频展示从任何声音创作歌曲。VOL-2:古典钢琴加法国手风琴,由钢琴家兼工程师Anessa表演。?https://x.com/imxiaohu/status/1795976717905043467

【SD】商业换装如此简单,Segment Anything保姆级教学

但有的时候,我们需要更精确一点的蒙版,比如人物的眼睛,或者是身上的配饰等等。单靠SAM模型就很难得到想要的蒙版了,这个时候我们就需要使用到segment anything中的GroundingDINO了。启用GroundingDINO,AI会自动下载模型,此时会需要用魔法,没有魔法的同学可以去我的云盘直接下载。放到这个文件目录下“……sd-webui-aki-v4.2\extensions\sd-webui-segment-anything\models\grounding-dino”点击启用,在检测提示词中输入“eye”,AI就可以根据语义分割帮我们自动检测出眼睛的部分,并设置好蒙版。我们还可以通过预览箱体,来得到两只眼睛的编号,通过编号可以选择调整单一的眼睛。比如,我只想调整左边那只眼睛,我就只需要勾选1就可以了。和刚才一样,选择我们想要修改的蒙版,上传到重绘蒙版当中。添加提示词“闭眼”。点击生成,可以看到图片就修改好了。我们再来给人物换个背景试试,加载刚才生成的背景蒙版。大模型选择revAnimated_v122,正向提示词:简单背景、花、国画、工笔。蒙版模式选择“重绘非蒙版内容”。得到这张图片,头发的部分没有抠太好。我们将它再次放入图生图中,使用tile模型做一次整体细化,除了融合人物之外,还能给人物的衣服也添加上国风元素。生成,人物好像变得高级了一些。来到PS,使用创成式填充修复一下头发。完成啦。

Others are asking
做卖货视频,想要把其中的人物和部分物体换掉,声音也换掉,可以用哪些方法
以下是一些可以用于做卖货视频时换掉人物、部分物体和声音的方法: 1. 数字人脸创作: 可以使用一系列逼真的照片或插图人脸来创造,所有人脸都经过优化,在添加语音和动作时能实现最佳效果。 上传自己的照片,如自己、朋友或家人的面部照片进行创作。 利用 DID 自带的 Stable Diffusion 的能力生成想象中的人脸,如描述“一个外星女神”“一个微笑的十九世纪维多利亚绅士”等。 数字人像添加到人脸库后可随意重复使用,输入新脚本让其说话。 2. 数字人说话方式: 用 GPT 直接生成脚本让数字人说话。 利用 GPT3 文本生成技术撰写脚本。 先选好脸,再输入脚本。 输入准备好的脚本,在 DID 中选择数百种语言和口音,并调整角色说话风格。 上传自己的音频记录,或从电影、电视剧中剪辑喜欢的台词、吟唱自编的歌曲。 3. 相关工具和操作指引: 利用 TecCreative 工具,如数字人口播配音,输入口播文案,选择期望生成的数字人形象及目标语言即可生成数字人口播视频。 图片换脸,仅需上传原始图片和换脸图片,即可一键实现素材换脸。 视频换脸,自动识别视频中的人脸,并将其替换为选择的脸部。 音频合成数字人,上传音频文件,选择数字人角色和输出类型即可生成。 AI 配音,多语种智能配音,区分男声和女声。 AI 字幕,智能识别视频语言并生成对应字幕。 4. 实战操作: 准备视频中播放的内容文字,可利用 AI 生成。 使用剪映 App 对视频进行简单处理,如添加文字内容轨道,替换默认文本内容等。
2024-12-30
有什么好的ai可以做到把视频中的人物或物体,背景等换掉,而且把其中的语音改成自己想要的说话声
以下是一些可以实现您需求的 AI 工具和方法: 1. 剪映 App: 生成数字人:在剪映右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。软件会播放数字人的声音,可判断是否需要,点击右下角“添加数字人”将其添加到视频中,左下角会提示渲染完成,可点击预览查看效果。 增加背景图片:删除先前导入的文本内容,点击左上角“媒体”菜单并点击“导入”按钮选择本地图片上传,将图片添加到视频轨道上,通过拖动轨道右侧竖线使其与视频对齐,选中轨道后可调整图片大小和数字人位置。 2. TecCreative 工具: 数字人口播配音:输入口播文案,选择期望生成的数字人形象及目标语言,即可生成数字人口播视频。 图片换脸:上传原始图片和换脸图片,一键实现素材换脸。 视频换脸:上传原始视频和换脸图片,自动识别并替换人脸。 音频合成数字人:上传音频文件,选择数字人角色和输出类型,生成数字人视频。 AI 配音:输入需配音文案,选择音色,立即生成。 AI 字幕:点击上传视频,开始生成,字幕解析完成后可下载 SRT 字幕。 在使用这些工具时,请注意相关的格式和文件大小限制,如图片大小上限 5M,支持 JPG、PNG 格式;音频文件支持 MP3 和 WAV 格式,文件大小上限 5M;视频支持 MP4 文件类型,大小上限为 50M。
2024-12-30
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19
可以视频混剪去重和二创的AI视频工具
以下是一些可以进行视频混剪去重和二创的 AI 视频工具: 1. 【TecCreative】 产品链接生成视频:输入产品链接(目前主要支持 Amazon、Shopify、ETSY、Ebay、Appstore、Google Play、WIKI 等,其他网站来源持续接入中),选择数字人角色,点击立即生成。如遇生成失败,可尝试删除链接后缀,点击重新生成。 AI 视频高光切片:智能提取视频高光片段,高效二创生成新视频。适用场景为有初始长视频素材,需要提取高光镜头对初始素材进行混剪投放到短视频平台。使用指引为点击上传视频——立即生成。 2. 小歪:AI 视频工具合集 viggle(有免费额度) 网址:http://viggle.ai discord 免费体验:https://discord.com/invite/viggle 功能: /mix: 将角色图像混合到动态视频中。上传一张字符清晰的图片和一段清晰运动的视频。 /animate: 使用文本运动提示为静态角色设置动画。上传一张字符清晰的图片,描述想让角色做的动作(也可从 https://viggle.ai/prompt 中复制动作提示词)。 /ideate: 纯粹从文本创建角色视频。描述想要创造的角色和希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /character: 通过文本提示创建角色并将其动画化。描述想要创造的角色,从四个结果中选择一个图像,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize: 使用文本提示符重新设计角色的样式并将其动画化。上传一张字符清晰的图片,描述想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 3. 其他工具: SVD:https://stablevideo.com/ ,对于景观更好用。工具教程: Morph Studio:https://app.morphstudio.com/ ,还在内测 Heygen:https://www.heygen.com/ ,数字人/对口型 Kaiber:https://kaiber.ai/ Moonvalley:https://moonvalley.ai/ Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频 美图旗下:https://www.miraclevision.com/ Neverends:https://neverends.life/create ,操作傻瓜 SD:Animatediff SVD deforum ,自己部署 Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态 Krea:https://www.krea.ai/ Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频 Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种 invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频 descript:https://www.descript.com/?ref=feizhuke.com veed.io:https://www.veed.io/ ,自动翻译自动字幕 clipchamp:https://app.clipchamp.com/ typeframes:https://www.revid.ai/?ref=aibot.cn
2025-03-07
头条文章二创提示词
以下是关于头条文章二创提示词的相关内容: 1. 对于提高文章原创度的二创,可直接拿原文执行以下步骤: 步骤 1:使用 ChatGPT 先对一段文字进行改写。 步骤 2:对改写后的文字进行原创性检测。 步骤 3:把原创度检测工具的结果告诉负责二创的 ChatGPT 角色,让其继续改写。 步骤 4:不断重复步骤 2 和步骤 3,让 ChatGPT 多次对文章进行二创。 步骤 5:让 ChatGPT 自己总结提示词,使用逆向工程提示词对文字二创过程进行提炼,多让其回答几次相关问题,然后把多次回答的结果进行提炼总结,形成更完整的内容。 步骤 6:整理 ChatGPT 返回结果,形成文字二次创作的通用提示词。 2. 网文创作提示词方面,有通用版和玄幻版,可根据需求调整,写作助手可能不太好用,重要的是根据自己需求调整。 3. 在“韦恩:扣子‘AI 应用’入门”中,关于变现和二创,可发布到社群、公众号、小红书、小程序或接受客户定制,二创方向可修改提示词为国风换装、新年换装等。
2025-02-15
如何在DEEPSEEK里创建一个专门用于”爆款文案二创“的智能体?
在 DEEPSEEK 里创建一个专门用于“爆款文案二创”的智能体,您可以按照以下步骤进行操作: 1. 添加工作流:将已经发布的工作流添加到创建好的智能体。 2. 设定人设与回复逻辑:设定与“爆款文案二创”相关的人设和回复逻辑。 3. 测试:对设定好的智能体进行测试。 4. 发布智能体:选择右上角,填写发布信息,选择发布渠道,确认发布,等待审核完成,发布成功。发布成功之后,点击分享,复制访问链接给朋友。 需要注意的是,以上步骤仅供参考,具体操作可能因 DEEPSEEK 平台的更新而有所变化。
2025-02-06
相同风格的图片进行二创
以下是关于相同风格图片进行二创的相关知识: DALLE 中: 每次通过 Prompt 生成图像时,都会随机选取一个 Seed 值。使用同样的 Prompt 和 Seed 值,能生成相同或相似的图片。 您可以自己测试效果,步骤如下: 1. 新开一个对话,使用 Prompt 让 DALLE 画图,要求提供 Seed。 2. 查看图片的 Prompt 并复制。 3. 在当前对话输入上一条 Prompt,另起一行输入“Use seed number '您在第一步拿到的 Seed'”。 Tusiart 中: 生图入口有以下几种: 1. 网页顶部的右方有生图按钮,点击进入生图界面。 2. 点进首页任意一个模型(checkpoint 或 lora),有运行按钮。 3. 点进任意一个模型下面的返图区(相关帖子),点开一张喜欢的图片,右侧有做同款的按钮。点开之后可以选择自动复制所有设置,尝试复现图片。 Midjourney 中: Midjourney 会用一个种子号来绘图,把这个种子作为生成初始图像的起点。种子号随机生成,但可以使用Seed 或same eseed 参数指定。使用相同的种子号和提示符将产生类似的结尾图片。默认情况下种子随机,若想要相似的图,需固定 seed。比如“caiyunyiueji is a cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k seed 8888”就能保证每次生成一样的图。还可以利用确定图片的 seed 加上新的关键词对效果图进行微调。
2024-10-23
AI小说二创工具
如果您想用 AI 把小说做成视频,可以按照以下流程进行: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 以下是一些相关工具及网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 另外,在 AIGC 的第一阶段,人工智能优化的工作流程中,有以下情况: 人工智能+人类共同创作工具:通过文本、语音或图像提示共同创作资产生成工具(例如用于稳定扩散的)。各公司将在用户体验、灵活性和功能方面展开竞争。最好的工具对于初学者来说应该很容易学习,但仍然能够跟上高级创作者的复杂指导。
2024-08-01