Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

让照片开口唱歌/让照片动起来

Answer

让照片开口唱歌/让照片动起来可以使用 SadTalker 这款开源程序。它可以实现照片的唇形同步,让照片随着声音动起来,达到开口唱歌的效果。

Content generated by AI large model, please carefully verify (powered by aily)

References

Others are asking
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11
我想用ai动漫人物唱歌
以下是一些可以帮助您实现用 AI 动漫人物唱歌的相关信息和资源: 在 AI 图像处理方面,有一些项目可以将图像进行动漫化处理,例如卡通头像制作等。 在音频与音乐制作方面,有专属歌曲创作、声音克隆、AI 唱歌等项目。比如制作专属歌曲、声音克隆/视频对口型等。 腾讯 AniPortrait 可以根据音频和静态人脸图片生成逼真的动态视频,支持多种语言、面部重绘、头部姿势控制。相关链接:https://github.com/ZejunYang/AniPortrait 、https://arxiv.org/abs/2403.17694 、https://x.com/imxiaohu/status/1772965256220045659?s=20 。 Hedra Studio 推出的 Character3 AI 支持全身动态与情感控制,能唱歌、说话甚至表演。
2025-03-12
数字人唱歌ai工具
以下是一些数字人唱歌的 AI 工具及相关信息: 【TecCreative】创意工具箱: 数字人口播配音:输入口播文案,选择数字人形象、目标语言和输出类型,即可生成数字人口播视频。操作指引:输入口播文案——选择目标语言——选择数字人角色——选择输出类型——点击开始生成。 音频合成数字人:上传音频文件,选择数字人角色和输出类型,即可基于音频合成对应的数字人视频。操作指引:上传音频文件——选择数字人角色——选择输出类型——点击开始生成。注意:音频文件支持 MP3 和 WAV 格式,文件大小上限 5M。 电商带货本地生活: 三种方式创作数字人脸:使用逼真的照片或插图人脸、上传自己的照片、利用 DID 自带的 Stable Diffusion 的能力生成想象中的人脸。 三种方式让数字人说话:用 GPT 直接生成脚本让数字人说话、先选好脸再输入脚本、上传自己的音频记录或从电影、电视剧中剪辑台词或吟唱自编歌曲。 AI 数字人: 算法驱动的数字人:开源代码仓库包括 ASR 语音识别(如 openai 的 whisper、wenet、speech_recognition)、AI Agent(大模型有 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等,Agent 部分可用 LangChain 的模块自定义)、TTS(如微软的 edgetts、VITS、sovitssvc 等)。 人物建模模型可通过手动建模(音频驱动)或 AIGC 的方式生成人物的动态效果(如 wav2lip 模型)。但简单构建方式存在一些问题,如生成指定人物的声音、TTS 生成的音频精确驱动数字人口型及动作、数字人使用知识库做出专业回答等。
2024-12-19
数字人唱歌
数字人唱歌相关内容如下: 创作数字人脸的方式: 使用一系列逼真的照片或插图人脸来创造,所有人脸都经过优化,在添加语音和动作时能实现最佳效果。 上传自己的照片,如自己、朋友或家人的面部照片。 利用 DID 自带的 Stable Diffusion 的能力生成想象中的人脸,通过描述想要的脸的样子来生成,如“一个外星女神”“一个微笑的十九世纪维多利亚绅士”等。数字人像添加到人脸库后可重复使用,输入新脚本让其说话。 让数字人说话的方式: 用 GPT 直接生成脚本让数字人说话,如利用 GPT3 文本生成技术撰写脚本。 先选好脸,再输入脚本。 输入准备好的脚本,DID 里有数百种语言和口音,选择想要使用的声音,并调整角色说话风格。 上传自己的音频记录,或从电影、电视剧中剪辑最喜欢的台词、吟唱自编的歌曲。 相关算法开源代码仓库: ASR 语音识别:openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition)。 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分:可使用 LangChain 的模块去做自定义(https://www.langchain.com/)。 TTS:微软的 edgetts(https://github.com/rany2/edgetts),只能使用里面预设的人物声音,目前接口免费;VITS(https://github.com/jaywalnut310/vits),还有很多分支版本;sovitssvc(https://github.com/svcdevelopteam/sovitssvc),专注到唱歌上面,前段时间很火的 AI 孙燕姿。 此外,剪映做数字人有优势,其作为字节跳动旗下产品,在抖音平台广泛应用,海外版 CapCut 也成绩斐然。其已有的 AI 功能能解决用数字人做视频的痛点,制作流程包括打开剪映添加文本、点击朗读并进行声音克隆、选择数字人形象并更换克隆音色、一键智能生成字幕并调整校准。剪映下载地址:
2024-12-19
有什么AI工具能帮助我配音,输入文本即可输出声音。还有什么AI工具能复制其他人的声音,使其可以唱歌。
以下是一些能够输入文本即可输出声音的 AI 工具: 1. Vidnoz AI:支持 23 多种语言的配音,音质高保真,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,提供面向个人和企业的经济实惠的定价方案。 2. Wavel Studio:支持 30 多种语言的配音,音质自然流畅,自动去除背景噪音和杂音,提供添加字幕和文本叠加层的工具,界面友好,提供多种自定义选项。 3. Elai.io:支持 65 多种语言的配音,音色和语调真实,自动将唇形与语音同步,生成字幕,提高视频的可访问性,支持多位配音者,适合复杂对话场景。 4. Rask AI:支持 130 多种语言的配音,包括稀有和濒危语言,采用先进语音合成技术,音质高保真,提供语音参数自定义和音效添加工具,与多种视频编辑平台和工作流程整合。 5. Notta:提供快速实惠的多语言配音解决方案,保留原声说话风格和细微差别,提供调整语音速度和音调的工具,支持批量处理,高效完成多视频配音。 6. Dubverse:支持 60 多种语言的配音,音质接近真人,提供文本转语音和语音克隆功能,提供语音参数自定义和情感添加工具,与多种视频平台和社交媒体渠道整合。 目前能够复制他人声音使其唱歌的 AI 工具相对较少,且在使用此类工具时需要注意法律和道德规范。在选择 AI 配音工具时,请考虑支持的语言数量、语音质量、自定义选项和价格等因素。
2024-12-04
智能体如何拥有唱歌功能
要让智能体拥有唱歌功能,需要从多个方面进行设计和构建: 1. 基础信息设定:包括智能体的姓名、性别、年龄和职业等,为后续功能设计提供基础。 2. 背景和经历考量:这些因素与基础信息相互影响,决定了智能体的基本特征,例如一个有特定背景和经历的智能体可能对唱歌有独特的喜好和追求。 3. 兴趣爱好规划:如果设定智能体特别喜欢唱歌,这可能会影响其长期规划,比如梦想成为专业歌手。 4. 性格和价值观塑造:这两者会影响智能体在唱歌方面的表现和追求,以及与唱歌相关的人际关系和社交行为。 此外,在技术实现上,需要强大的语音合成和音乐生成技术支持,以模拟真实的唱歌效果。同时,还需要不断优化和训练,以提高唱歌功能的质量和表现力。
2024-11-12
我指的是要用我的音色翻唱歌曲 用AI来克隆 推荐不错的吧
以下是为您推荐的关于用 AI 克隆音色翻唱歌曲的相关内容: ElevenLabs 推出了全自动化的 AI 配音或视频翻译工具。您只需上传视频或粘贴视频链接,它能在几十秒到几分钟内将视频翻译成 29 种语言,还能克隆原视频中的声音进行配音。群友瑞华测试发现,模仿豆包的音色读约 20 个字的句子,5 秒就能生成非常相似的音色,之后可用自己的声音读生成的文字内容。详情可参考:https://mp.weixin.qq.com/s/nHIPaq4evPbvSQS1ctYZrA 剪映也有新的声音克隆功能,卡兹克做了对比,效果不错。 Stuart:免费 AI 真人语音入门 GPTSoVITS + BertVITS2 。一开始只是字生成语音并能选不同音色,音色基于网络红人训练,与对应的网络红人非常相像,也可自己训练,参考: 但真正使用时会发现只改音色不够用,因为真正说话或配音时有口头禅、重音、停顿等。 一些提供 AI Mastering 的网站列表: https://www.landr.com/onlineaudiomastering/ (收费) https://emastered.com/ (收费) https://app.kits.ai/aimastering (收费,推荐,除母带处理,还有分轨、替换人声、人声克隆等功能) https://app.bakuage.com/ (免费!强烈推荐,本文主角!正常情况下不需要魔法,为保证流畅,建议打开魔法)
2024-08-27
动物开口说话、对口型的api
以下为您介绍一些关于动物开口说话、对口型的 API 相关信息: 即梦 AI: 对口型功能是即梦 AI 「视频生成」中的二次编辑功能,现支持中文、英文配音。 目前主要针对写实/偏真实风格化人物的口型及配音生成,为用户的创作提供更多视听信息传达的能力。 可上传包含完整人物面容的图片,进行视频生成,待视频生成完成后,点击预览视频下的「对口型」按钮,输入台词并选择音色,或上传配音文件进行对口型效果生成。目前支持语言:中文(全部音色),英文(推荐「超拟真」内的音色)。 技巧:上传写实/近写实的人物单人图片,目前不支持多人物图片对口型;输入 prompt,选择参数,点击生成视频,尽量确保人物无形变等扭曲效果;确保人物生成的情绪与希望匹配的口型内容匹配;在生成的视频下方,点击【对口型】;输入或上传需要配音的内容,注意视频生成时长和配音试听时长尽量对齐,点击生成;先对口型,再超分补帧。 快手可灵 AI: 快手旗下可灵 AI(Kling AI)新增对口型功能,全面开放 API,并支持创意圈发布作品。 希望以上内容对您有所帮助。
2024-12-09
让图片开口说话
以下是一些让图片开口说话的方法和相关信息: 可以使用一键数字人的好用小工具来实现让照片开口讲话。 实战教程方面,可使用 SadTalker 让照片说话。在图片预处理方式中,crop 只截取图片头部,full 保留整张照片,下面的勾选项有文字解释,可自行尝试。点击 generate 后,由于涉及到视频的推理和转换,输出时间远大于 AI 绘图和 sovits 的声音推理,需做好等待准备。例如导入 13 秒的音频,预计需要 3 5 分钟(3060 12g 显卡)。最终生成的视频长度与音频一致,若想制作长视频,最好剪成小段分别推理再合并。完成后可打开输出目录或下载视频文件查看效果。带面部修复会有不同效果。 SadTalker 是利用目前主流的开源程序让照片说话唱歌,达到基本的唇形同步。其相关链接如下: GitHub 地址:https://github.com/OpenTalker/SadTalker 视频教程:https://www.bilibili.com/video/BV1Dc411W7V6/?vd_source=35e62d366d8173e12669705f7aedd122 对于编程、python、conda 不熟悉的,可使用整合包:用夸克网盘分享的「EZAIStarterv0.9.8.zip」,链接:https://pan.quark.cn/s/1d5ca9f57f5c ;视频地址:https://www.bilibili.com/video/BV1ga4y1u7Ep/?spm_id_from=333.337.searchcard.all.click&vd_source=35e62d366d8173e12669705f7aedd122 。具体步骤为:点我启动,在启动界面中选择音频、图像口型同步的下载图标,下载完毕后启动应用,会弹出独立窗口(非默认浏览器),选择 SadTalker 同步器,分别导入图片和声音。
2024-09-26
怎么让图片动起来
要让图片动起来,可以参考以下几种方法: 1. 使用即梦进行图生视频:只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度根据视频节奏选择,比如选择慢速。 2. 使用 Camera Motion: 上传图片:点击“Add Image”上传图片。 输入提示词:在“Prompt”中输入提示词。 设置运镜方向:选择想要的运镜方向,输入运镜值。 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成想要的任意值。 其它:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 生成视频:点击“create”,生成视频。 3. 对于复杂的图片,比如多人多活动的图: 图片分模块:把长图分多个模块。 抠出背景图:智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。 绿幕处理前景图:将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 前景图动态生成视频:用 AI 视频生成工具写入提示词让图片动起来,比如即梦、海螺、混元等。不停尝试抽卡。 生成视频去掉背景:用剪映把抽卡合格的视频放在去掉内容的背景图片,视频的背景用色度抠图调整去掉。多个视频放在背景图片,一起动即可。
2025-04-12
请帮我生成一个大三毕业论文的题目,专业是关于计算机应用的,技术栈:Python(Pandas/Matplotlib),MYSQL,生成可视化图表,可生成HTML网站,包含数据分析,需要有最基本的功能,最好与生活中的某些东西联系起来
以下是为您生成的几个与生活相关的计算机应用专业大三毕业论文题目,供您参考: 1. 《基于 Python 和 MySQL 的居民日常消费数据分析及可视化网站构建》 2. 《利用 Python 和 MySQL 分析城市交通流量数据并实现可视化与网站展示》 3. 《基于 Python 和 MySQL 的家庭能源消耗数据分析与可视化网站设计》 4. 《运用 Python 和 MySQL 对校园图书馆借阅数据的分析及可视化网站开发》 5. 《通过 Python 和 MySQL 研究城市空气质量数据的可视化分析与网站实现》
2025-04-11
让照片动起来
以下是让照片动起来的相关方法: 可以使用即梦进行图生视频,只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容即可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度可根据视频节奏选择,如选择慢速。 还可以使用 Cooraft 工具,它能让静态照片动起来,并加入搞笑或酷炫效果。下载地址:
2025-04-10
如何让图片动起来
以下是让图片动起来的几种方法: 1. 使用即梦进行图生视频:只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度可根据视频节奏选择,如选择慢速。 2. 使用 Camera Motion: 上传图片:点击“Add Image”上传图片。 输入提示词:在“Prompt”中输入提示词。 设置运镜方向:选择您想要的运镜方向,并输入相应的运镜值。 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 其它设置:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 生成视频:点击“create”,生成视频。 3. 对于复杂的图片,如多人多活动的图: 图片分模块:把长图分多个模块。 抠出背景图:对于复杂部分的图,用智能抠图工具把要动的内容去除掉,用 AI 生成图片部分。 绿幕处理前景图:将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 前景图动态生成视频:用 AI 视频生成工具(如即梦、海螺、混元等)写入提示词让图片动起来,不停尝试抽卡。 生成视频去掉背景:用剪映把抽卡合格的视频放在去掉内容的背景图片,视频的背景用色度抠图调整去掉。多个视频放在背景图片,一起动即可。
2025-04-01
如何让一张卡通人物动起来
要让一张卡通人物动起来,可以参考以下几种方法: 1. 使用 AnimateX :类似 Animate Anyone,输入角色图片和参考动作序列,即可实现角色动画,尤其适配拟人化的角色。 2. 借助 Pika : 账号注册:访问完成免费注册。 素材整理: 视频:准备一段视频,可手机实拍,≥5 秒,生成时会自动截取前 5 秒,横屏/竖屏均可(建议 1080p 以上)。 图片:准备一张主体清晰无遮挡的角色图片,生成的视频中将参考此图片的角色并融入视频。 文案思路:提前构思角色动态关键词(如“奔跑/挥手/发光”),也可让模型自由发挥。 3. 运用即梦进行图生视频:只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。 此外,在制作过程中,还可以像桂大羊的教程那样,通过描绘人物的提示词、上传角色参考图、扣除角色背景以便于进行角色加背景的融合生成时进行垫图操作等方式,提高人物和场景的融合度。
2025-03-30
让老照片动起来
以下是关于让老照片动起来的相关信息: 2024 上海市杨浦区举办了“时光印记”AI 公益挑战赛,采集了 20 位老一辈建设者的老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图,重现其青春风采与城市贡献。奖项丰富,包括丰厚现金奖励、DOU+流量推广、即梦 AI 积分、歌歌 AI 会员、剪映 App 会员等,还有比赛证书、线下巡展等。报名及创作时间为即日起至 2024 年 11 月 20 日。活动组织包括上海市杨浦区民政局、跳跳糖星火公益社团、WaytoAGI、即梦 A、歌歌 Al 等。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s,评选规则为预选加专家评委多维度评选。参赛方式为报名问卷和进群获取素材。 体验让老照片动起来的工具: Dreamina 即梦:网址为 https://dreamina.jianying.com/aitool/home?subTab ,优点是不需要?,每天有免费额度,注册可用抖音号或手机号,注册时间 5min。上传图片后能让老照片有一些动态效果,比如水面动起来,但也可能出现画面扭曲的情况。 Sora:网址为 https://openai.com/sora ,优点是发布的成果好,集成在 openai 一套里可用,但需要?,需要 gmail 注册,需要订阅后才能使用,花费时间 30 60min,价格为 GPT 4 20$一个月。
2025-03-26