百科技术库 各行业技术资料 - 百科资料网
欢迎来到百科技术库 各行业技术资料 - 百科资料网! [免费注册] | [登录] 微信快捷登录 QQ登录 微博登录 | 帮助中心 各行业技术应有尽有!
全国服务热线 13310018778

栏目导航

最新技术
一种识别方法、装置、用于识别的装置及语音合成方法
本发明实施例提供了一种识别方法、装置、用于识别的装置以及语音合成方法。其中的识别方法包括:识别目标文本中的对话文本;根据当前对话文本的上下文,确定所述当前对话文本的候选说话人;获取所述候选说话人与所述当前对话文本之间的关系特征;根据所述当前对话文本、所述当前对话文本的上下文、所述当前对话文本的候选说话人、以及所述关系特征,确定所述当前对话文本的至少一个目标说话人。本发明实施例可以自动识别目标文本中各对话文本的目标说话人,可以减少人工成本并且提高识别效率,还可以提高识别目标说话人的准确性。
一种语音合成方法、装置和用于语音合成的装置
本发明实施例提供了一种语音合成方法、装置和用于语音合成的装置。其中的方法包括:获取音频训练数据,音频训练数据包括不同音色特征以及不同情感特征的音频数据;根据音频训练数据训练语音合成模型,所述语音合成模型包括不同音色特征的音频训练数据训练得到的音色模型参数,以及不同情感特征的音频训练数据训练得到的韵律模型参数;将待合成的文本数据、至少一个说话人标识、以及情感标识输入语音合成模型,通过语音合成模型输出语音合成数据,语音合成数据包含说话人标识对应的音色特征以及情感标识对应的情感特征。本发明实施例可以合成不同音色特征以及不同情感特征组合的目标音频,可以扩展语音合成模型的适用范围。
一种语音合成方法、装置和用于语音合成的装置
本发明实施例提供了一种语音合成方法、装置和用于语音合成的装置。其中的方法包括:获取文本数据、至少一个说话人标识、以及风格标识;将所述文本数据、所述至少一个说话人标识、以及所述风格标识输入语音合成模型,所述语音合成模型根据所述文本数据、所述说话人标识对应的音色模型参数、以及所述风格标识对应的韵律模型参数进行语音合成,得到合成语音数据;所述语音合成模型包括不同音色特征的音频训练数据训练得到的音色模型参数,以及不同风格特征的音频训练数据训练得到的韵律模型参数。本发明实施例可以合成不同音色不同风格的目标音频,扩展语音合成模型的适用范围,降低对训练数据的要求以及降低训练数据的采集成本。
语音合成方法、装置、电子设备以及计算机可读存储介质
本发明的实施例提供了一种语音合成方法、装置、电子设备以及计算机可读存储介质,方法包括:确定待合成文本;将待合成文本转化为待合成国际音标对应的第一ID序列和国际音标对应的声调ID;确定用户选择的目标对象的ID和标准对象的ID;输入至语音合成模型中语音合成模型,依据待合成文本的待合成国际音标序列,预测每个待合成国际音标的时长,语音合成模型根据待合成国际音标对应的第一ID序列、国际音标对应的声调ID、每个待合成国际音标的时长、目标对象的ID以及标准对象的ID进行处理,输出待合成文本的声学特征。能够使得对象在合成非本土语言的时候,能够使用本土说话人,即标准对象的韵律,最终得到更好的语音合成自然度。
语音合成方法和装置、电子设备及存储介质
本申请实施例提供的语音合成方法和装置、电子设备及存储介质,涉及语音合成技术领域。语音合成方法包括:首先,获取待处理语音数据的对数梅尔能量谱;其次,将待处理语音数据的对数梅尔能量谱输入预设的语音合成模型,得到第一合成音频,其中,预设的语音合成模型根据训练数据的对数梅尔能量谱进行训练得到。通过上述方法,可以实现通过对数梅尔能量谱就可以得到合成音频,避免了现有技术中语音合成方法需要的参数量较多,所导致的语音合成效率低的问题。
一种端到端实时语音合成方法
一种端到端实时语音合成方法,通过对音频和文本数据进行预处理,整理成平行语料,通过词嵌入转换成特征向量,输入到基于高斯混合模型注意力机制的序列到序列生成模型,以生成预测的梅尔谱;将梅尔谱进行归一化处理,输入到基于生成对抗网络的声码器后端,经过对抗训练来提升合成语音的质量,最后输出合成语音。本发明方法在保证合成语音的质量的同时,可以提高注意力机制的对齐速度,并且在长语音的合成中表现优秀;通过对音频进行分频带编码,可以提高模型的训练速度,降低语音生成时耗,同时使用多尺度短时傅里叶变换损失函数,提高合成语音的质量与实时率。
基于人工智能的音频生成方法、装置、设备及存储介质
本申请提供了一种基于人工智能的音频生成方法、装置、电子设备及计算机可读存储介质;涉及人工智能技术;方法包括:对文本对应的音素序列进行编码处理,得到音素序列的上下文表征;基于音素序列中的每个音素对应的第一帧隐含状态,确定第一帧隐含状态相对于上下文表征的对齐位置;当对齐位置对应上下文表征中的非末尾位置时,基于上下文表征以及第一帧隐含状态进行解码处理,得到第二帧隐含状态;基于第一帧隐含状态以及第二帧隐含状态进行合成处理,得到文本对应的音频数据。通过本申请,能够提高音频合成的准确性。
语音合成方法、系统、设备及存储介质
本申请实施例提供一种语音合成方法、系统、设备及存储介质。在本申请实施例中,提供一种多通道线性预测网络声码器,支持多通道输入,通过获取待合成文本在多个通道上的声学特征,利用该多通道线性预测网络声码器可合成出该待合成文本对应的语音信号;其中,基于线性预测进行语音合成可保证语音合成质量,与此同时,借助于多通道的优势可提高语音合成效率。