zhuanli/21/202310420753.html by HTTrack Website Copier/3.x [XR&CO'2014], Mon, 24 Jul 2023 09:35:37 GMT --> 基于神经网络的语音合成方法以及相关设备与流程

基于神经网络的语音合成方法以及相关设备与流程

文档序号:34864406发布日期:2023-07-23 16:34阅读:8来源:国知局
基于神经网络的语音合成方法以及相关设备与流程

1.本技术涉及计算机技术领域,尤其涉及一种基于神经网络的语音合成方法以及相关设备。


背景技术:

2.随着神经网络的发展,语音合成技术取得了巨大的进步。其中,大部分基于神经网络的语音合成技术可以分为:获取预测语音的中间表达,如频谱特征;构建声码器并通过声码器根据中间表达合成原始音频。
3.然而,由于相关声码器的模型参数过多导致计算效率较低,无法在智能手机等中低端设备进行实时语音合成。


技术实现要素:

4.本技术实施例的主要目的在于提出一种基于神经网络的语音合成方法、装置、电子设备及计算机可读存储介质,能够在保证语音波形生成质量的同时提高语音合成速度。
5.为实现上述目的,本技术实施例的第一方面提出了一种基于神经网络的语音合成方法,所述方法包括:
6.获取说话音频样本集;
7.基于所述说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型;
8.根据所述目标语音分离模型的模型参数确定多个波形的基向量;
9.获取待合成文本;
10.将所述待合成文本进行特征提取处理,得到所述待合成文本对应的语言特征信息;
11.将所述语言特征信息输入到训练好的声谱预测模型中,以通过所述声谱预测模型生成符合预设说话者说出所述待合成文本的第一频谱特征;
12.将所述第一频谱特征输入至训练好的hifi-gan生成器,以通过所述hifi-gan生成器获取对应于所述基向量的第一权重参数;
13.根据所述基向量和所述第一权重向量合成所述待合成文本的目标语音音频。
14.根据本发明一些实施例提供的基于神经网络的语音合成方法,所述初始语音分离模型包括编码器、分离器以及解码器;
15.所述基向量为所述解码器中的滤波器参数。
16.根据本发明一些实施例提供的基于神经网络的语音合成方法,所述说话音频样本集包括多个音频样本,所述音频样本由随机噪声以及单个说话者的原始说话音频混合得到;
17.所述基于所述说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型,包括:
18.将多个所述音频样本的声波信息输入至所述初始语音分离模型的编码器,以通过所述编码器获取所述音频样本对应多个波形的基向量的混合权重参数;
19.将所述混合权重参数输入至所述初始语音分离模型的分离器,以通过所述分离器获取所述随机噪声对应的第二权重参数以及所述原始说话音频的第三权重参数;
20.将所述第二权重参数和所述第三权重参数输入至所述初始语音分离模型的解码器,以通过所述解码器获取所述随机噪声的第一预测波形以及所述原始说话音频的第二预测波形;
21.根据所述随机噪声的声波信息、所述第一预测波形以及预设的语音分离损失函数确定第一语音分离损失值;
22.根据所述原始说话音频的声波信息、所述第二预测波形以及所述语音分离损失函数确定第二语音分离损失值;
23.基于所述第一语音分离损失值和第二语音分离损失值对所述初始语音分离模型的模型参数进行更新,得到目标语音分离模型。
24.根据本发明一些实施例提供的基于神经网络的语音合成方法,所述hifi-gan生成器的训练过程包括:
25.获取训练文本集的第二频谱特征;
26.将所述训练文本集的第二频谱特征输入至所述hifi-gan生成器,以通过所述hifi-gan生成器获取对应于所述基向量的第四权重参数;
27.根据所述第四权重参数以及预设的权重阈值、第一生成损失函数确定第一生成损失值;
28.基于所述第一生成损失值对所述hifi-gan生成器的模型参数进行更新,得到训练好的hifi-gan生成器。
29.根据本发明一些实施例提供的基于神经网络的语音合成方法,所述第一生成损失函数通过以下公式确定:
[0030][0031]
其中,所述l
weight
为第一生成损失值,所述w为第四权重参数,所述为权重阈值,所述||
·
||1表征取第一范数。
[0032]
根据本发明一些实施例提供的基于神经网络的语音合成方法,在所述将所述训练文本集的第二频谱特征输入至所述hifi-gan生成器,以通过所述hifi-gan生成器获取对应于所述基向量的第四权重参数之后,所述方法还包括:
[0033]
根据所述基向量和所述第四权重向量合成所述训练文本集对应的训练语音音频;
[0034]
确定所述训练语音音频为真实样本的概率值,并根据所述概率值以及预设的第二生成损失函数确定第二生成损失值;
[0035]
所述基于所述第一生成损失值对所述hifi-gan生成器的模型参数进行更新,得到训练好的hifi-gan生成器,包括:
[0036]
基于所述第一生成损失值以及所述第二生成损失值对所述hifi-gan生成器的模型参数进行更新,得到训练好的hifi-gan生成器。
[0037]
根据本发明一些实施例提供的基于神经网络的语音合成方法,所述第二生成损失
函数通过以下公式确定:
[0038]
l
adv
=(d(g(s))-1)2;
[0039]
其中,所述l
adv
为第二生成损失值,所述s为第二频谱特征,所述g(s)为训练语音音频,所述d(g(s))为所述训练语音音频为真实样本的概率值。
[0040]
为实现上述目的,本技术实施例的第二方面提出了一种基于神经网络的语音合成装置,所述装置包括:
[0041]
第一获取模块,用于获取说话音频样本集;
[0042]
模型训练模块,用于基于所述说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型;
[0043]
基向量获取模块,用于根据所述目标语音分离模型的模型参数确定多个波形的基向量;
[0044]
第二获取模块,用于获取待合成文本;
[0045]
语音特征提取模块,用于将所述待合成文本进行特征提取处理,得到所述待合成文本对应的语言特征信息;
[0046]
频谱特征提取模块,用于将所述语言特征信息输入到训练好的声谱预测模型中,以通过所述声谱预测模型生成符合预设说话者说出所述待合成文本的第一频谱特征;
[0047]
权重获取模块,用于将所述第一频谱特征输入至训练好的hifi-gan生成器,以通过所述hifi-gan生成器获取对应于所述基向量的第一权重参数;
[0048]
语音合成模块,用于根据所述基向量和所述第一权重向量合成所述待合成文本的目标语音音频。
[0049]
为实现上述目的,本技术实施例的第三方面提出了一种电子设备,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述第一方面所述的方法。
[0050]
为实现上述目的,本技术实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,所述存储介质存储有一个或者多个计算机程序,所述一个或者多个计算机程序可被一个或者多个处理器执行,以实现上述第一方面所述的方法。
[0051]
本技术提出一种基于神经网络的语音合成方法、装置、电子设备以及计算机可读存储介质,该方法通过获取说话音频样本集,并基于该说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型,之后根据目标语音分离模型的模型参数确定多个波形的基向量,之后获取待合成文本,并将待合成文本进行特征提取处理,得到该待合成文本对应的语言特征信息,在将语言特征信息输入到训练好的声谱预测模型中,以通过该声谱预测模型生成符合预设说话者说出待合成文本的第一频谱特征,最后将第一频谱特征输入至训练好的hifi-gan生成器,以通过hifi-gan生成器获取对应于基向量的第一权重参数,再根据基向量和第一权重向量合成待合成文本的目标语音音频。本技术实施例通过波形的基向量和权重参数表示音频波形,减少了hifi-gan生成器的上采样网络的维度和层数,能够在保证语音波形生成质量的同时提高语音合成速度。
附图说明
[0052]
图1是本技术实施例提供的一种基于神经网络的语音合成方法的流程示意图;
[0053]
图2是图1中步骤s120的子步骤流程示意图;
[0054]
图3是本技术另一实施例提供的一种基于神经网络的语音合成方法的流程示意图;
[0055]
图4是本技术另一实施例提供的一种基于神经网络的语音合成方法的流程示意图;
[0056]
图5是本技术实施例提供的一种语音分离模型的模型训练流程示意图;
[0057]
图6是本技术另一实施例提供的一种基于神经网络的语音合成方法的流程示意图;
[0058]
图7是本技术实施例提供的一种基于神经网络的语音合成装置的结构示意图;
[0059]
图8是本技术实施例提供的一种电子设备的硬件结构示意图。
具体实施方式
[0060]
为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本技术,并不用于限定本技术。
[0061]
需要说明的是,除非另有定义,本文所使用的所有的技术和科学术语与属于本技术的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本技术实施例的目的,不是旨在限制本技术。
[0062]
随着神经网络的发展,语音合成技术取得了巨大的进步。其中,大部分基于神经网络的语音合成技术可以分为:获取预测语音的中间表达,如频谱特征;构建声码器并通过声码器根据中间表达合成原始音频。假定中间表达为梅尔频谱,则相关技术中有三种常见的方法可以将梅尔频谱转换为语音波形:
[0063]
1、纯信号处理方法,如griffin-lim算法,其缺点在于生成的语音波形人工痕迹严重;
[0064]
2、基于自回归的神经网络模型,如wavenet等神经声码器,其缺点在于合成时间长,不适用于实时应用;
[0065]
3、基于非自回归的神经网络模型,如waceglow等神经声码器。
[0066]
同时,随着对抗生成网络gan在图像生成领域的广泛应用,基于gan的声码器也逐渐出现,如hifi-gan神经声码器。
[0067]
虽然基于对抗生成网络的声码器在计算时间上比基于自回归的声码器效率更高,但是在处理器上进行实时的语音音频合成仍然是一项具有挑战性的任务,例如,hifi-gan声码器可以产生相对高质量的音频,其主要的计算消耗来自其生成器的上采样层,该生成器被设计用于直接生成和输出波形分辨率大小的时间序列,其过程的复杂度和每个帧对应的样本数密切相关,仍无法在一些手机等中低端设备进行实时语音合成。因此进一步减少模型的参数以提高计算效率,从而提高语音合成速度变得极为重要。
[0068]
基于此,本技术实施例提供了一种基于神经网络的语音合成方法、装置、电子设备及计算机可读存储介质,能够在保证语音波形生成质量的同时提高语音合成速度。
[0069]
本技术实施例提供的一种基于神经网络的语音合成方法、装置、电子设备及计算机可读存储介质,具体通过如下实施例进行说明,首先描述本技术实施例中的基于神经网络的语音合成方法。
[0070]
本技术实施例可以基于神经网络技术对相关的数据进行获取和处理。其中,神经网络(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
[0071]
神经网络基础技术一般包括如传感器、专用神经网络芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。神经网络软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
[0072]
本技术实施例提供的基于神经网络的语音合成方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn以及大数据和神经网络平台等基础云计算服务的云服务器;软件可以是实现基于神经网络的语音合成方法的应用等,但并不局限于以上形式。
[0073]
本技术可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络pc、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本技术可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本技术,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
[0074]
请参见图1,图1示出了本技术实施例提供的一种基于神经网络的语音合成方法的流程示意图。如图1所示,该基于神经网络的语音合成方法包括但不限于步骤s110至s180:
[0075]
步骤s110,获取说话音频样本集;
[0076]
步骤s120,基于该说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型;
[0077]
步骤s130,根据该目标语音分离模型的模型参数确定多个波形的基向量;
[0078]
步骤s140,获取待合成文本;
[0079]
步骤s150,将该待合成文本进行特征提取处理,得到该待合成文本对应的语言特征信息;
[0080]
步骤s160,将该语言特征信息输入到训练好的声谱预测模型中,以通过该声谱预测模型生成符合预设说话者说出该待合成文本的第一频谱特征;
[0081]
步骤s170,将该第一频谱特征输入至训练好的hifi-gan生成器,以通过该hifi-gan生成器获取对应于该基向量的第一权重参数;
[0082]
步骤s180,根据该基向量和该第一权重向量合成该待合成文本的目标语音音频。
[0083]
可以理解的是,该基于神经网络的语音合成方法首先对预设的初始语音分离模型进行训练,得到目标语音分离模型。并从该目标语音分离模型的模型参数中获取多个波形的基向量,通过训练好的hifi-gan生成器预测输入频谱特征对应该基向量的权重,最后基于基向量和权重重构语音音频波形,也就是说,利用波形的基向量以及对应的权重来表示音频波形。
[0084]
由于多个波形的基向量是固定的,因此,通过减少hifi-gan生成器中上采样网络层的维度和层数匹配输出权重,基于基向量和权重即可合成语音音频,其输出维度远小于音频波形。
[0085]
在一些实施例中,该初始语音分离模型包括编码器、分离器以及解码器,该基向量为该解码器中的滤波器参数。
[0086]
示例性的,参见图5,图5是本技术实施例提供的一种语音分离模型的模型训练流程示意图,如图5所示,该初始语音分离模型包括编码器、分离器以及解码器,其中解码器中的滤波器参数为波形的基向量。
[0087]
在一些具体实施例中,该初始语音分离模型为时域音频分离网络(time-domain audio separation network)。
[0088]
在一些实施例中,该说话音频样本集包括多个音频样本,该音频样本由随机噪声以及单个说话者的原始说话音频混合得到;
[0089]
参见图2,图2是图1中步骤s120的子步骤流程示意图,如图2所示,该基于该说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型,包括:
[0090]
步骤s210,将多个该音频样本的声波信息输入至该初始语音分离模型的编码器,以通过该编码器获取该音频样本对应多个波形的基向量的混合权重参数;
[0091]
步骤s220,将该混合权重参数输入至该初始语音分离模型的分离器,以通过该分离器获取该随机噪声对应的第二权重参数以及该原始说话音频的第三权重参数;
[0092]
步骤s230,将该第二权重参数和该第三权重参数输入至该初始语音分离模型的解码器,以通过该解码器获取该随机噪声的第一预测波形以及该原始说话音频的第二预测波形;
[0093]
步骤s240,根据该随机噪声的声波信息、该第一预测波形以及预设的语音分离损失函数确定第一语音分离损失值;
[0094]
步骤s250,根据该原始说话音频的声波信息、该第二预测波形以及该语音分离损失函数确定第二语音分离损失值;
[0095]
步骤s260,基于该第一语音分离损失值和第二语音分离损失值对该初始语音分离模型的模型参数进行更新,得到目标语音分离模型。
[0096]
如图5所示,将随机噪声和单个说话者的原始说话音频进行混合,得到音频样本,也就是将随机噪声和原始波形进行混合得到混合波形,并音频样本的声波信息(混合波形)将输入至初始语音分离模型中的编码器中,通过编码器对其进行特征提取估计混合权重参数。
[0097]
再通过分离器对混合权重参数进行拆分,得到随机噪声对应的权重wn和原始说话音频对应的权重ws,其中,分离器为随机噪声和原始波形从混合权重参数中产生一个掩码
矩阵,从而根据混合权重参数和掩码矩阵得到权重wn和ws。
[0098]
最后由解码器通过基信号(basis signal)和权重wn和ws矩阵相乘合成单个说话者的重构波形以及随机噪声,其中基信号表示为基矩阵b(basis matrix),基矩阵b中每一行对应编码器中一个1d滤波器(和初始语音分离模型的其他分部一起联合学习),为波形不同的基向量。因此,该初始语音分离模型的输出波形可以表示为y=b
·
w。
[0099]
还可以理解的是,在对初始语音分离模型进行训练之后,即可根据训练好的解码器确定多个波形的基向量。
[0100]
此后根据随机噪声的声波信息、第一预测波形以及预设的语音分离损失函数确定第一语音分离损失值,在根据原始说话音频的声波信息、第二预测波形以及该语音分离损失函数确定第二语音分离损失值,基于该第一语音分离损失值和第二语音分离损失值对初始语音分离模型的模型参数进行更新,得到目标语音分离模型。
[0101]
在一个具体实施例中,初始语音分离模型使用标度不变信源噪声比(si-snr)作为训练目标,其中,si-snr定义为:
[0102][0103][0104][0105]
其中,表征单个说话者的重构波形,s表征单个说话者的原始波形。
[0106]
在一个具体实施例中,该随机噪声为高斯噪声,为一种服从高斯分布的随机噪声,通过将单个说话者的原始说话音频和高斯噪声进行混合得到音频样本,并基于该音频样本进行模型训练,能够提高语音分离模型的鲁棒性。
[0107]
可以理解的是,hifi-gan声码器包括生成器和判别器,其中,hifi-gan生成器的输入为mel频谱。因此,在利用hifi-gan生成器进行语音合成之前,通过声谱预测模型预测语音的中间表示,也就是待合成语音对应的频谱特征。
[0108]
在一些实施例中,声谱预测模型为durian模型,该durian模型包括时间预测模型以及频谱预测网络。
[0109]
该durian模型的训练过程包括:获取说话者说话时记录的音频信号、表达该音频信号内容的文本信息以及由音频信号转换的频谱特征,从该文本信息提取表征语言学的信息,作为语言特征信息,之后以该语言特征信息为样本,该音频信号的时长为标签,训练时间预测网络。在完成训练该时间预测网络之后,以该语言特征信息为样本,该频谱特征作为标签,训练该频谱预测网络。
[0110]
应了解,声谱预测模型用于预测待合成语音对应的频率特征,其具体模型不限于上述durian模型,只要可以通过该模型预测语音的频谱特征即可。
[0111]
在一些实施例中,参见图3,该hifi-gan生成器的训练过程包括:
[0112]
步骤s310,获取训练文本集的第二频谱特征;
[0113]
步骤s320,将该训练文本集的第二频谱特征输入至该hifi-gan生成器,以通过该
hifi-gan生成器获取对应于该基向量的第四权重参数;
[0114]
步骤s330,根据该第四权重参数以及预设的权重阈值、第一生成损失函数确定第一生成损失值;
[0115]
步骤s340,基于该第一生成损失值对该hifi-gan生成器的模型参数进行更新,得到训练好的hifi-gan生成器。
[0116]
参见图6,图6是本技术另一实施例提供的一种基于神经网络的语音合成方法的流程示意图。如图6所示,hifi-gan生成器是一个完全卷积神经网络,使用mel频谱为输入,并通过转置卷积对其进行上采样,一般上采样直至输入序列的长度与原始波形的时间分辨率匹配。hifi-gan生成器具体包括有n个拼接的卷积神经网络层(convtranspose)以及多接收场景融合模块(multi-receptive field fusion,mrf)。
[0117]
示例性的,如图6所示,通过减少hifi-gan生成器中采样层网络,也就是减少卷积神经网络的维度和层数使其匹配输出权重ws,最后将权重ws和包括多个基向量的基矩阵(basis matrix)进行矩阵相乘重构波形。
[0118]
应能理解的是,获取训练文本集的第二频谱特征,其中,训练文本集中每个训练样本包括说话者说话出文本信息时记录的音频信号、由该音频信号转换的频谱特征以及该音频信号对应的权重阈值。可以理解的是,该音频信号对应的权重阈值可以通过训练好的语音分离模型获取。因此,以训练文本集的第二频谱特征作为样本,以该权重阈值为标签,训练hifi-gan生成器。
[0119]
具体的,将第二频谱特征输入至hifi-gan生成器中,通过hifi-gan生成器对其进行特征提取,预测第四权重参数,第四权重参数为说话者说话出文本信息时记录的音频信号对应的权重参数,根据该预测的第四权重参数和预设权证阈值、第一生成损失函数确定第一生成损失值,并基于该第一生成损失值对应hifi-gan生成器的模型参数进行更新,得到训练好的hifi-gan生成器。
[0120]
在一些实施例中,该第一生成损失函数通过以下公式确定:
[0121][0122]
其中,该l
weight
为第一生成损失值,该w为第四权重参数,该为权重阈值,该||
·
||1表征取第一范数。
[0123]
通过引入权重损失取代原hifi-gan生成器的特征损失,能够提高损失计算速度。
[0124]
还可以理解的是,第一生成损失函数还可以利用第二范数,或是使用其他损失函数衡量权重损失,本技术实施例对此不作限制。
[0125]
在一些实施例中,参见图4,图4是本技术另一实施例提供的一种基于神经网络的语音合成方法,如图4所示,在将该训练文本集的第二频谱特征输入至该hifi-gan生成器,以通过该hifi-gan生成器获取对应于该基向量的第四权重参数之后,该方法还包括:
[0126]
步骤s410,根据该基向量和该第四权重向量合成该训练文本对应的训练语音音频;
[0127]
步骤s420,确定该训练语音音频为真实样本的概率值,并根据该概率值以及预设的第二生成损失函数确定第二生成损失值;
[0128]
该基于该第一生成损失值对该hifi-gan生成器的模型参数进行更新,得到训练好
的hifi-gan生成器,包括:
[0129]
步骤s430,基于该第一生成损失值以及该第二生成损失值对该hifi-gan生成器的模型参数进行更新,得到训练好的hifi-gan生成器。
[0130]
应能理解的是,除了上述实施例提及的权重损失,在根据基向量和第四权重向量预测该训练文本集对应的训练语音音频之后,通过hifi-gan声码器中的判别器确定该训练语音音频为真实样本的概率值,并根据该概率值以及预设的第二生成损失函数确定第二生成损失值,并根据由权重损失得到的第一生成损失值以及该第二生成损失值对hifi-gan生成器的模型参数进行更新,直至第一生成损失值满足预设条件,得到训练好的hifi-gan生成器。
[0131]
在一些实施例中,该第二生成损失函数通过以下公式确定:
[0132]
l
adv
=(d(g(s))-1)2;
[0133]
其中,该l
adv
为第二生成损失值,该s为第二频谱特征,该g(s)为训练语音音频,该d(g(s))为该训练语音音频为真实样本的概率值。
[0134]
在一个具体实施例中,沿用hifi-gan声码器中多个多周期判别器和多尺度判别器提高对生成器输出波形的鉴别能力。
[0135]
下面通过一个具体实施例描述本技术实施例提供的基于神经网络的语音合成方法:
[0136]
本技术使用基向量和权重表征音频波形,首先通过语音分离领域中的tasnet模型学习分离音频的基矩阵(basis matrix),该基矩阵包括多个不同波形的基向量,且该基矩阵中每行分别对应tasnet模型中解码器的1d滤波器,之后在语音合成中,基于hifi-gan生成器并通过减少其采样网络层的维度和层数,使其匹配输出权重参数,之后通过基矩阵和权重参数重构波形,实现语音合成,且相较于原始的hifi-gan声码器,能够在保证波形生成质量的情况下提高生成速度。
[0137]
具体的,参见图5,在tasnet模型的训练过程中,通过将单个说话者说话的原始波形和随机噪声进行混合,得到混合波形,并将其输入至tasnet模型的编码器中,通过编码器对混合波形进行特征提取,得到混合权重参数,之后利用tasnet模型中的分离器对该混合权重参数进行分离,得到原始波形对应的权重ws以及随机噪声的权重wn,之后由解码器根据权重和基矩阵进行波形重构,得到单个说话者说话的重构波形,最后基于重构波形和原始波形对tasnet模型的模型参数进行更新。从训练好的解码器中获取多个波形的基向量,也就是训练好的基矩阵。
[0138]
此后,获取待合成文本,并提取待合成文本的语言学表征得到语言特征信息,利用训练好的声谱预测模型预测该待合成文本的中间表示,也就是待合成文本对应的频谱特征。
[0139]
参见图6,在语音合成中,将待合成文本对应的频谱特征输入至hifi-gan生成器中,其中通过减少hifi-生成器中卷积神经网络的维度和层数,使其匹配输出权重参数,最后根据该权重参数以及从训练好的tasnet模型中获取的基矩阵得到重构波形,实现语音合成。
[0140]
本技术提出一种基于神经网络的语音合成方法,该方法通过获取说话音频样本集,并基于该说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模
型,之后根据目标语音分离模型的模型参数确定多个波形的基向量,之后获取待合成文本,并将待合成文本进行特征提取处理,得到该待合成文本对应的语言特征信息,在将语言特征信息输入到训练好的声谱预测模型中,以通过该声谱预测模型生成符合预设说话者说出待合成文本的第一频谱特征,最后将第一频谱特征输入至训练好的hifi-gan生成器,以通过hifi-gan生成器获取对应于基向量的第一权重参数,再根据基向量和第一权重向量合成待合成文本的目标语音音频。本技术实施例通过波形的基向量和权重参数表示音频波形,减少了hifi-gan生成器的上采样网络的维度和层数,能够在保证语音波形生成质量的同时提高语音合成速度。
[0141]
请参见图7,本技术实施例还提供了一种基于神经网络的语音合成装置100,所述基于神经网络的语音合成装置100包括:
[0142]
第一获取模块110,用于获取说话音频样本集;
[0143]
模型训练模块120,用于基于该说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型;
[0144]
基向量获取模块130,用于根据该目标语音分离模型的模型参数确定多个波形的基向量;
[0145]
第二获取模块140,用于获取待合成文本;
[0146]
语音特征提取模块150,用于将该待合成文本进行特征提取处理,得到该待合成文本对应的语言特征信息;
[0147]
频谱特征提取模块160,用于将该语言特征信息输入到训练好的声谱预测模型中,以通过该声谱预测模型生成符合预设说话者说出该待合成文本的第一频谱特征;
[0148]
权重获取模块170,用于将该第一频谱特征输入至训练好的hifi-gan生成器,以通过该hifi-gan生成器获取对应于该基向量的第一权重参数;
[0149]
语音合成模块180,用于根据该基向量和该第一权重向量合成该待合成文本的目标语音音频。
[0150]
本技术提出一种基于神经网络的语音合成装置,该装置通过获取说话音频样本集,并基于该说话音频样本集对预设的初始语音分离模型进行训练,得到目标语音分离模型,之后根据目标语音分离模型的模型参数确定多个波形的基向量,之后获取待合成文本,并将待合成文本进行特征提取处理,得到该待合成文本对应的语言特征信息,在将语言特征信息输入到训练好的声谱预测模型中,以通过该声谱预测模型生成符合预设说话者说出待合成文本的第一频谱特征,最后将第一频谱特征输入至训练好的hifi-gan生成器,以通过hifi-gan生成器获取对应于基向量的第一权重参数,再根据基向量和第一权重向量合成待合成文本的目标语音音频。本技术实施例通过波形的基向量和权重参数表示音频波形,减少了hifi-gan生成器的上采样网络的维度和层数,能够在保证语音波形生成质量的同时提高语音合成速度。
[0151]
需要说明的是,上述装置的模块之间的信息交互、执行过程等内容,由于与本技术方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
[0152]
请参见图8,图8示出本技术实施例提供的一种电子设备的硬件结构,电子设备包括:
[0153]
处理器210,可以采用通用的cpu(central processing unit,中央处理器)、微处理器、应用专用集合成电路(application specific integrated circuit,asic)、或者一个或多个集合成电路等方式实现,用于执行相关计算机程序,以实现本技术实施例所提供的技术方案;
[0154]
存储器220,可以采用只读存储器(read only memory,rom)、静态存储设备、动态存储设备或者随机存取存储器(random access memory,ram)等形式实现。存储器220可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器220中,并由处理器210来调用执行本技术实施例的基于神经网络的语音合成方法;
[0155]
输入/输出接口230,用于实现信息输入及输出;
[0156]
通信接口240,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信;和总线250,在设备的每个组件(例如处理器210、存储器220、输入/输出接口230和通信接口240)之间传输信息;
[0157]
其中处理器210、存储器220、输入/输出接口230和通信接口240通过总线250实现彼此之间在设备内部的通信连接。
[0158]
本技术实施例还提供了一种存储介质,存储介质为计算机可读存储介质,用于计算机可读存储,存储介质存储有一个或者多个计算机程序,一个或者多个计算机程序可被一个或者多个处理器执行,以实现上述基于神经网络的语音合成方法。
[0159]
存储器作为一种计算机可读存储介质,可用于存储软件程序以及计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0160]
本技术实施例描述的实施例是为了更加清楚的说明本技术实施例的技术方案,并不构成对于本技术实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本技术实施例提供的技术方案对于类似的技术问题,同样适用。
[0161]
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0162]
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
[0163]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
[0164]
本技术的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清
楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0165]
应当理解,在本技术中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:只存在a,只存在b以及同时存在a和b三种情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
[0166]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集合成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0167]
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0168]
另外,在本技术每个实施例中的各功能单元可以集合成在一个处理单元中,也可以是每个单元单独物理存在,也可以两个或两个以上单元集合成在一个单元中。上述集合成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0169]
集合成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术每个实施例的方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-only memory,简称rom)、随机存取存储器(random access memory,简称ram)、磁碟或者光盘等各种可以存储程序的介质。
[0170]
以上参照附图说明了本技术实施例的优选实施例,并非因此局限本技术实施例的权利范围。本领域技术人员不脱离本技术实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本技术实施例的权利范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1
zhuanli/21/202310420753.html by HTTrack Website Copier/3.x [XR&CO'2014], Mon, 24 Jul 2023 09:35:41 GMT -->