Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

音频视频合成

Answer

以下是关于音频视频合成的相关知识:

一、开源的 aiauto_v0.1 流程 跑通流程包括小说生成、语音合成、字幕生成、图像生成和视频合成:

  1. 小说生成:使用 openai 的 api“gpt-4-0613”模型 prompt 生成小说开篇,并续写至 2000 字左右。
  2. 语音合成:使用 pyttsx3 开源库进行文本到语音的生成。
  3. 字幕生成:使用开源 whisper 进行语音到文字识别(可输出每个词的开始与结束时间),并处理成字幕。
  4. 图像生成:使用 openai 的 api“gpt-4-0613”模型 prompt,进行“字幕文件“的分段,以及生成 dall-e-3 prompt,并调用 dall-e-3 api 接口,生成对应图片。
  5. 视频合成:将图片、音频、字幕合成视频。

二、语音合成的技术原理 传统的语音合成技术一般会经过以下三个步骤:

  1. 文本与韵律分析:先将文本分词,再标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。
  2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。
  3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后依次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。

三、照片数字人工作流及语音合成(TTS)API - 出门问问 Mobvoi

  1. 调用参数及说明:
    • 字段名“text”:必填,类型为 String,要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。
    • 字段名“appkey”:必填,类型为 String,开发者在 AI 开放平台上申请的 appkey。
    • 字段名“signature”:必填,类型为 String,签名,通过“appkey+secret+timestamp”进行 md5 加密,得到的 32 位 MD5 值。其中加号也参与 MD5 的计算。每次请求实时计算签名,签名有效期为 10 分钟。
    • 字段名“timestamp”:必填,类型为 Long,当前时间戳,单位为秒。
    • 字段名“speaker”:否,类型为 String,合成音频指定发音人。默认值:cissy_meet,其他发音人传值及计费价格请参考声音商店。
    • 字段名“audio_type”:否,类型为 String,合成音频的格式。默认值:mp3,可选值:pcm/mp3/speex-wb-10/wav,只支持这四种格式中的一种。
    • 字段名“speed”:否,类型为 Float,发音人合成的语速,支持小数点后两位。默认值:1.0,可选值:0.5 - 2.0。
    • 字段名“convert”:否,类型为 String,默认值:无,可选值:robot,是否转化为机器声。
Content generated by AI large model, please carefully verify (powered by aily)

References

长生:【开源】aiauto_v0.1

跑通流程:小说生成——语音合成——字幕生成——图像生成——视频合成:1.小说生成:使用openai的api“gpt-4-0613”模型prompt生成小说开篇,并续写至2000字左右;2.[Role:科幻小说作家](https://xclq32ny47.feishu.cn/wiki/XZkYwBqWti0B2Rk9i0HcUJ5jngb)3.续写提示词:1.结尾提示词:1.语音合成:使用pyttsx3开源库进行文本到语音的生成;2.字幕生成:使用开源whisper进行语音到文字识别(可输出每个词的开始与结束时间),并处理成字幕;3.图像生成:使用openai的api“gpt-4-0613”模型prompt,进行“字幕文件“的分段,以及生成dall-e-3 prompt,并调用dall-e-3 api接口,生成对应图片;4.[Role:小说字幕分镜师](https://xclq32ny47.feishu.cn/wiki/LcUGw67Wei7ncVkNfUJcymCznvc)用于获取字幕进行分镜、dall-e-3 prompt、以及当前分镜的开始时间;5.视频合成:将图片、音频、字幕,合成视频。

语音合成

传统的语音合成技术一般会经过文本与韵律分析、声学处理与声音合成三个步骤。1.文本与韵律分析:先将文本分词;再标明每个字的发音以及重音、停顿等韵律信息;然后提取文本的特征,生成特征向量。2.声学处理:通过声学模型将文本特征向量映射到声学特征向量。3.声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后一次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。

照片数字人工作流及语音合成(TTS)API- 出门问问Mobvoi

调用参数及说明:|字段名|必填|类型|描述|<br>|-|-|-|-|<br>|text|是|String|要合成的文本内容,限制为1000字符。支持ssml标记语言,使用说明见附录3。|<br>|appkey|是|String|开发者在AI开放平台上申请的appkey。|<br>|signature|是|String|签名,通过“appkey+secret+timestamp”进行md5加密,得到的32位MD5值。其中加号也参与MD5的计算。<br>每次请求实时计算签名,签名有效期为10分钟。|<br>|timestamp|是|Long|当前时间戳,单位为秒。|<br>|speaker|否|String|合成音频指定发音人<br>默认值:cissy_meet<br>其他发音人传值及计费价格请参考声音商店。|<br>|audio_type|否|String|合成音频的格式<br>默认值:mp3<br>可选值:pcm/mp3/speex-wb-10/wav<br>只支持这四种格式中的一种|<br>|speed|否|Float|发音人合成的语速,支持小数点后两位<br>默认值:1.0<br>可选值:0.5-2.0|<br>|convert|否|String|默认值:无<br>可选值:robot<br>是否转化为机器声|

Others are asking
好用的人声合成AI
以下是一些好用的人声合成 AI 相关内容: 1. 关于 AI 孙燕姿的生成: 推荐归臧写的通俗易懂的教程: 《》 《》 项目主要使用 SoVITSSVC 4.0,可在。 模型使用分为原始声音处理、推理过程和音轨合并三个部分。使用 UVR_v5.5.0 软件处理声音,保留人物的干声。运行整合包的 Web UI 进行声音推理,需将模型文件和配置文件放置正确文件夹下。分割后的素材尽量不要超过显存大小,使用【slicergui】软件进行分割。最终得到的处理好的人声素材可用于训练模型。 2. 深度伪造技术: 深度伪造技术(deepfakes)是利用 AI 程序和深度学习算法实现音视频模拟和伪造的技术,投入深度学习的内容库越大,合成的视音频真实性越高,甚至能以假乱真。 粉丝们会通过 Stems 音轨分离工具将人声与原始歌曲分离,再使用人声转换模型将人声转换成另一位明星的风格,然后将新的人声轨道与原始作品重新拼接在一起。DiffSVC 是一种流行的用于此目的的语音传输模型。 3. 制作 AI 古人骂人视频: 声音克隆: 工具:Fish Audio 操作:准备一段需要克隆的音频(可以是类似屈原的古风声音,或自行录制一段),打开网站 https://fish.audio/zhCN/train/newmodel/ ,上传音频,按照指引完成声音克隆,进入声音库选择需要使用的声音,将生成的文案输入,使用克隆好的声音生成对应的音频文件并下载备用。 视频合成: 工具:Viggle.ai 操作:在网上下载“回答我”的原视频,打开 Viggle.ai 网站(https://viggle.ai/createmix ),登录后上传“回答我”原视频和人物形象图生成新版本视频,预览效果并下载。 视频剪辑: 工具:剪映 操作:打开剪映软件(手机或电脑版均可),导入合成好的新视频和生成的音频文件,将音频与视频时间轴对齐,添加字幕等,如需叠加特殊背景,可导入自己的背景图(如楚国风景),预览整个视频,检查效果并微调后导出最终视频。 请注意版权问题,请勿侵犯他人音乐版权。
2025-03-24
免费语音合成API
以下是关于出门问问语音合成(TTS)API 的相关信息: 接口请求域名:https://open.mobvoi.com/api/tts/v1 接口请求频率限制:5 次/秒 调用参数及说明: 字段名:text 必填:是 类型:String 描述:要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。 字段名:appkey 必填:是 类型:String 描述:开发者在 AI 开放平台上申请的 appkey。 字段名:signature 必填:是 类型:String 描述:签名,通过“appkey+secret+timestamp”进行 md5 加密,得到的 32 位 MD5 值。其中加号也参与 MD5 的计算。每次请求实时计算签名,签名有效期为 10 分钟。 字段名:timestamp 必填:是 类型:Long 描述:当前时间戳,单位为秒。 字段名:speaker 必填:否 类型:String 描述:合成音频指定发音人。默认值:cissy_meet。其他发音人传值及计费价格请参考声音商店。 字段名:audio_type 必填:否 类型:String 描述:合成音频的格式。默认值:mp3。可选值:pcm/mp3/speexwb10/wav。只支持这四种格式中的一种。 字段名:speed 必填:否 类型:Float 描述:发音人合成的语速,支持小数点后两位。默认值:1.0。可选值:0.5 2.0。 字段名:convert 必填:否 类型:String 描述:默认值:无。可选值:robot。是否转化为机器声。 字段名:rate 必填:否 类型:Long 描述:音频采样率。默认值:无,由 speaker 指定默认值。可选值:8000/16000/24000。 字段名:volume 必填:否 类型:Float 描述:合成音量。默认值:1.0。可选值:0.1 1.0。 字段名:pitch 必填:否 类型:Float 描述:语调参数,参数小于 0 则语调变低,反之则高。默认值:0。可选值:10 < pitch < 10(streaming 接口不支持)。 字段名:symbol_sil 必填:否 类型:String 描述:符号停顿时长映射方法(逗号分割)见下方停顿符号映射表。充值后自动开通权限(streaming 接口不支持)。 字段名:ignore_limit 必填:否 类型:Boolean 描述:默认值:false。可选值:false/true。是否限制字符数,如果设置 true,传输的文本可以超过 1000 字符限制,最大字符数 3000。充值后自动开通权限。 出门问问语音合成技术(TTS)可以将任意文本转化为语音,实现让机器和应用张口说话。其可应用于视频 APP 配音解说、小说 App 有声阅读、移动 App 新闻语音播报、智能设备语音提醒、车载导航语音合成的个性化语音播报等场景。该服务提供了普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格,满足不同场景的选择需求。实时合成支持 SSML,语法详见 SSML 标记语言。 HTTP Method:支持 POST 请求。
2025-03-07
如果我想对一首歌填新歌并合成演唱,用哪个AI工具
如果您想对一首歌填新词并合成演唱,可以使用以下 AI 工具: 1. ACE Studio: 实操步骤: 第一步:准备音频素材。使用干声转换,在软件中分别导入人声干声和伴奏,放在两个轨道上。干声用于转成 MIDI 做 AI 演唱。注意,男歌女唱或女歌男唱时,导入前先进行变调。常用工具如 TME Studio(地址:https://y.qq.com/tme_studio/index.html/editor ),可用于音频分离;Vocalremover(地址:https://vocalremover.org/zh/keybpmfinder ),包含音频分离、变调、BPM 查询等功能。 第二步:干声转换。转换前先将工程 BPM 设置为与歌曲一致,然后将音频轨道的文件拖入到空白的歌手轨道进行干声转换。 第三步:选择歌手。软件左侧有歌手可选择,长按拖动到歌手轨道的头像处即可切换歌手。 2. Suno 和 Udio:推出了上传音频文件生成音乐的功能,有了前置旋律,可以精确控制每首歌的速度、旋律、配器、合成等。可以用提示词多 Roll 一些和流派、心情、场景相关的曲子,把点数用来 roll 更多细节调整的部分,提升作品品质。
2025-03-06
最好的语音合成模型是什么?用于我录入语音,合成我自己的声音。
目前在语音合成领域,有多种优秀的模型。例如: ChatTTS:这是一个用于对话的生成式语音合成模型,生成的语音可以达到“以假乱真”的程度。但为防止被用于违法行为,作者在训练中添加了少量高频噪音并压缩了音质。 MiniMax AI 的 T2A01HD 语音合成模型:仅需 10 秒录音,就能实现高精度的声音克隆。生成的语音在音色、语调和情感表达上达到录音室级别,支持 17 种语言,提供 300 多种预置音色库,并支持多种音效调整。 语音合成包括将文本转换为可听声音信息的过程,一般由文本前端和声学后端两个部分组成。当代工业界主流语音合成系统的声学后端主要技术路线包括单元挑选波形拼接、统计参数和端到端语音合成方法,当代主要采用端到端声学后端。端到端声学后端一般包括声学模型和声码器两部分,同时也出现了直接从音素映射为波形的完全端到端语音合成系统。 您可以根据自己的需求选择适合的语音合成模型。例如,如果您希望快速实现高精度的声音克隆,可以考虑 MiniMax AI 的 T2A01HD 模型;如果您对对话场景的语音合成有需求,ChatTTS 可能是一个不错的选择。
2025-03-06
AI 把logo 合成到图片里
以下是关于将 AI 把 logo 合成到图片里的相关内容: 试运行抠图操作,将抠图结果合到海报上,包括进入画板、添加画板、调整元素等操作。 为锅的海报添加背景及调整图片显示,处理品牌 LOGO 相关操作,如抠图、添加、调整位置和大小。 用 LLM 生成图像提示词,将提示词和 Logo 图片放到 Comfyui 工作流。 整个流程分为获取 Logo 图片的描述、生成图片提示词、将图片和提示词输入 Comfyui 工作生成。
2025-03-03
图片合成
以下是关于图片合成的相关介绍: ComfyUI BrushNet: 这个过程类似于小时候的连点成图游戏,现在由电脑在图片上操作。 1. 掩码:像有洞的纸覆盖在图片上,电脑程序通过洞了解需修复部分。 2. 编码器:是电脑的大脑,把需修复图片转换成能理解和处理的信息。 3. 噪声潜在空间:加入随机性让修复部分更自然。 4. BrushNet 和冻结的 UNet:像画家的画笔和调色板,帮助完成修复工作。 5. 去噪和生成图像:去除噪声,创建真实图片部分。 6. 模糊掩码和合成:用特殊技巧将新生成图片和原始图片融合。 Blend叠加: /blend 命令允许快速上传 2 5 张图片,通过对每张图片的概念和美学分析,将它们合并成新图。 与 /imagine 结合多个 。 在输入 /blend 命令后,会提示上传两张照片,可从硬盘拖放或在移动设备从照片库添加。要添加更多图像,选择 optional/options 字段并选 image3、image4 或 image5。 图像叠加默认 1:1 宽高比,可使用可选的 dimensions 字段选择方形(1:1)、肖像(2:3)或横向(3:2)的长宽比。 与其他 /imagine 命令一样,/blend 指令末尾可添加 ,指定在 /blend 命令中的宽高比会覆盖自定义后缀中的宽高比。为获得最佳处理效果,上传与期望结果相同的图像宽高比。
2025-02-10