百科技术库 各行业技术资料 - 百科资料网
欢迎来到百科技术库 各行业技术资料 - 百科资料网! [免费注册] | [登录] 微信快捷登录 QQ登录 微博登录 | 帮助中心 各行业技术应有尽有!
全国服务热线 13310018778

栏目导航

最新技术
一种识别方法、装置、用于识别的装置及语音合成方法
本发明实施例提供了一种识别方法、装置、用于识别的装置以及语音合成方法。其中的识别方法包括:识别目标文本中的对话文本;根据当前对话文本的上下文,确定所述当前对话文本的候选说话人;获取所述候选说话人与所述当前对话文本之间的关系特征;根据所述当前对话文本、所述当前对话文本的上下文、所述当前对话文本的候选说话人、以及所述关系特征,确定所述当前对话文本的至少一个目标说话人。本发明实施例可以自动识别目标文本中各对话文本的目标说话人,可以减少人工成本并且提高识别效率,还可以提高识别目标说话人的准确性。
一种语音合成方法、装置和用于语音合成的装置
本发明实施例提供了一种语音合成方法、装置和用于语音合成的装置。其中的方法包括:获取音频训练数据,音频训练数据包括不同音色特征以及不同情感特征的音频数据;根据音频训练数据训练语音合成模型,所述语音合成模型包括不同音色特征的音频训练数据训练得到的音色模型参数,以及不同情感特征的音频训练数据训练得到的韵律模型参数;将待合成的文本数据、至少一个说话人标识、以及情感标识输入语音合成模型,通过语音合成模型输出语音合成数据,语音合成数据包含说话人标识对应的音色特征以及情感标识对应的情感特征。本发明实施例可以合成不同音色特征以及不同情感特征组合的目标音频,可以扩展语音合成模型的适用范围。
一种语音合成方法、装置和用于语音合成的装置
本发明实施例提供了一种语音合成方法、装置和用于语音合成的装置。其中的方法包括:获取文本数据、至少一个说话人标识、以及风格标识;将所述文本数据、所述至少一个说话人标识、以及所述风格标识输入语音合成模型,所述语音合成模型根据所述文本数据、所述说话人标识对应的音色模型参数、以及所述风格标识对应的韵律模型参数进行语音合成,得到合成语音数据;所述语音合成模型包括不同音色特征的音频训练数据训练得到的音色模型参数,以及不同风格特征的音频训练数据训练得到的韵律模型参数。本发明实施例可以合成不同音色不同风格的目标音频,扩展语音合成模型的适用范围,降低对训练数据的要求以及降低训练数据的采集成本。
语音纠正方法、装置及电子设备
本公开提供一种语音纠正方法、装置及电子设备,所述方法包括:提取待处理语音的目标声音特征;基于所述目标声音特征确定所述待处理语音所属的目标地理区域;从预先训练的多个语音纠正模型中获取与所述目标地理区域对应的目标语音纠正模型,所述多个语音纠正模型分别与多个地理区域对应;基于所述目标语音纠正模型对所述待处理语音进行语音纠正,输出纠正后的语音。本公开实施例能够提高语音纠正效果。
情感语音合成方法、装置、设备及存储介质
本申请为语音合成技术领域,本申请提供了一种情感语音合成方法、装置、设备及存储介质,其中,所述方法包括:获取情感语音合成片段,对情感语音合成片段设置同步标记;以情感语音合成片段的同步标记为中心,选择预设时长的时间窗对情感语音合成片段进行加窗处理,得到多段语音信号;依据预设的情感语音合成规则调整同步标记,得到目标同步标记;根据目标同步标记将多段语音信号进行拼接,得到合成语音。本申请利用情感语音合成片段,通过基音同步分析、基音同步修改、基音同步合成等方式合成语音,提高合成效果;同时无需获取文本情感分类标签,降低了合成成本。
语音合成方法、装置、电子设备以及计算机可读存储介质
本发明的实施例提供了一种语音合成方法、装置、电子设备以及计算机可读存储介质,方法包括:确定待合成文本;将待合成文本转化为待合成国际音标对应的第一ID序列和国际音标对应的声调ID;确定用户选择的目标对象的ID和标准对象的ID;输入至语音合成模型中语音合成模型,依据待合成文本的待合成国际音标序列,预测每个待合成国际音标的时长,语音合成模型根据待合成国际音标对应的第一ID序列、国际音标对应的声调ID、每个待合成国际音标的时长、目标对象的ID以及标准对象的ID进行处理,输出待合成文本的声学特征。能够使得对象在合成非本土语言的时候,能够使用本土说话人,即标准对象的韵律,最终得到更好的语音合成自然度。
语音合成方法和装置、电子设备及存储介质
本申请实施例提供的语音合成方法和装置、电子设备及存储介质,涉及语音合成技术领域。语音合成方法包括:首先,获取待处理语音数据的对数梅尔能量谱;其次,将待处理语音数据的对数梅尔能量谱输入预设的语音合成模型,得到第一合成音频,其中,预设的语音合成模型根据训练数据的对数梅尔能量谱进行训练得到。通过上述方法,可以实现通过对数梅尔能量谱就可以得到合成音频,避免了现有技术中语音合成方法需要的参数量较多,所导致的语音合成效率低的问题。
一种端到端实时语音合成方法
一种端到端实时语音合成方法,通过对音频和文本数据进行预处理,整理成平行语料,通过词嵌入转换成特征向量,输入到基于高斯混合模型注意力机制的序列到序列生成模型,以生成预测的梅尔谱;将梅尔谱进行归一化处理,输入到基于生成对抗网络的声码器后端,经过对抗训练来提升合成语音的质量,最后输出合成语音。本发明方法在保证合成语音的质量的同时,可以提高注意力机制的对齐速度,并且在长语音的合成中表现优秀;通过对音频进行分频带编码,可以提高模型的训练速度,降低语音生成时耗,同时使用多尺度短时傅里叶变换损失函数,提高合成语音的质量与实时率。
一种智能语音的交互方法、装置和系统
本申请公开了一种智能语音的交互方法、装置和系统,该方法应用于便携式智能设备,包括:在与目标底座连接的情况下,获取目标底座的标识信息,根据标识信息确定与目标底座对应的目标应用场景;接收语音信号,并获取与语音信号对应的处理指令;基于处理指令以及目标应用场景执行对应的目标操作。由于用户可以携带便携式智能设备至任一场景,且在任一场景中,便携式智能设备均可以通过目标底座的标识信息识别该场景,并进行在该场景下的智能语音交互,因此,可以实现通过同一设备在不同场景下进行智能语音交互的目的,此外,由于可以共用同一套软硬件设备实现不同场景下的智能语音交互,因此,可以保障不同场景下智能语音交互体验的一致性。
基于人工智能的音频生成方法、装置、设备及存储介质
本申请提供了一种基于人工智能的音频生成方法、装置、电子设备及计算机可读存储介质;涉及人工智能技术;方法包括:对文本对应的音素序列进行编码处理,得到音素序列的上下文表征;基于音素序列中的每个音素对应的第一帧隐含状态,确定第一帧隐含状态相对于上下文表征的对齐位置;当对齐位置对应上下文表征中的非末尾位置时,基于上下文表征以及第一帧隐含状态进行解码处理,得到第二帧隐含状态;基于第一帧隐含状态以及第二帧隐含状态进行合成处理,得到文本对应的音频数据。通过本申请,能够提高音频合成的准确性。