HI,欢迎来到起点商标网!
24小时服务QQ:2880605093

一种语音合成方法、装置、电子设备和可读存储介质与流程

2021-01-28 12:01:30|236|起点商标网
一种语音合成方法、装置、电子设备和可读存储介质与流程

[0001]
本申请涉及计算机技术领域,尤其涉及语音处理和深度学习技术领域中的一种语音合成方法、装置、电子设备和可读存储介质。


背景技术:

[0002]
目前市面上存在大量具有说书、讲故事等音频播放功能的app或者软件。具有音频播放功能的app或者软件中的部分音频资源,是利用语音合成技术由相应的文本所合成的。在此类场景中,语音合成技术可以极大地降低音频资源录制时所需的人工成本。
[0003]
但是,现有的语音合成技术生成的音频刻板、单调,与真人特别是专业配音演员的风格表现力、韵律感差距巨大,用户体验欠佳。并且,现有方案在合成多角色对白文本时,均使用固定音色,不能带给用户多人角色扮演的个性化体验。然而,在个性化合成场景中,用户希望用任意给定音色去合成音频,现有的技术方案不能同时实现专业配音般的韵律感和任意音色输出。一言以蔽之,目前还没有一种技术方案可以让用户给定多个任意音色去合成多角色对白文本,且保证合成的音频具有专业配音般的韵律感。


技术实现要素:

[0004]
本申请为解决技术问题所采用的技术方案是提供一种语音合成方法,包括:获取待处理文本;确定所述待处理文本包含的多个文本片段,以及分别对应各文本片段的语音风格与语音音色;根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段;拼接转换得到的音频片段,得到所述待处理文本对应的语音合成结果。
[0005]
本申请为解决技术问题所采用的技术方案是提供一种语音合成装置,包括:获取单元,用于获取待处理文本;确定单元,用于确定所述待处理文本包含的多个文本片段,以及分别对应各文本片段的语音风格与语音音色;合成单元,用于根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段;处理单元,用于拼接转换得到的音频片段,得到所述待处理文本对应的语音合成结果。
[0006]
一种电子设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述方法。
[0007]
一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行上述方法。
[0008]
上述申请中的一个实施例具有如下优点或有益效果:本申请能够实现通过多样化的语音风格搭配任意音色来得到语音合成结果,使得语音合成结果更加富有韵律感和表现力,提升语音合成结果的真实性、生动性。因为采用了获取待处理文本中不同文本片段对应的语音风格与语音音色的技术手段,所以克服了现有技术中对于不同的语音片段均使用固定风格或者固定音色导致所合成的音频资源较为刻板单调的技术问题,实现了语音合成时提升不同角色的发音多样性,并同时增强语音合成结果的风格表现力,使得语音合成结果
更为真实、生动的技术效果。
[0009]
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
[0010]
附图用于更好地理解本方案,不构成对本申请的限定。其中:
[0011]
图1是根据本申请第一实施例的示意图;
[0012]
图2是根据本申请第二实施例的示意图;
[0013]
图3是根据本申请第三实施例的示意图;
[0014]
图4是用来实现本申请实施例的语音合成方法的电子设备的框图。
具体实施方式
[0015]
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0016]
图1是根据本申请第一实施例的示意图。如图1中所示,本实施例的语音合成方法,具体可以包括如下步骤:
[0017]
s101、获取待处理文本;
[0018]
s102、确定所述待处理文本包含的多个文本片段,以及分别对应各文本片段的语音风格与语音音色;
[0019]
s103、根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段;
[0020]
s104、拼接转换得到的音频片段,得到所述待处理文本对应的语音合成结果。
[0021]
本实施例的语音合成方法,根据待处理文本中不同文本片段所对应的语音风格与语音音色,将各文本片段分别转换为音频片段,进而拼接各音频片段得到语音合成结果,提升了语音合成结果中不同角色的发音多样性,增强了语音合成结果的风格表现力,使得语音合成结果更为真实、生动。
[0022]
本实施例执行s101获取的待处理文本,可以为包含多角色对白与旁白的文本,例如小说类文本或者故事类文本。本实施例对s101所获取的待处理文本的类型不进行限定。
[0023]
本实施例在执行s101获取了待处理文本之后,执行s102确定待处理文本包含的多个文本片段,以及分别对应各文本片段的语音风格与语音音色,即确定不同的文本片段具有的不同的语音风格与不同的语音音色。
[0024]
本实施例在执行s102确定待处理文本包含的多个文本片段时,可以以句子为单位对待处理文本进行拆分,从而将拆分得到的一个个句子作为待处理文本包含的多个文本片段,所得到的每个文本片段与文本中的旁白或者文本中的某个角色相对应。
[0025]
本实施例执行s102确定的语音风格用于表示文本片段的情感类型,可以包含普通、高兴、愤怒、无奈、郑重、惶恐、疑惑、尊重与冷嘲热讽等;确定的语音音色用于表示文本片段的说话角色,例如旁白或者具体的人物角色。
[0026]
可以理解的是,本实施例执行s102确定的语音音色可以对应待处理文本中的具体
人物,例如小说中某个人物的姓名;也可以对应待处理文本中具体人物的职业或者身份,例如教师、医生、父亲、母亲等。
[0027]
具体地,本实施例在执行s102确定对应各文本片段的语音风格时,可以采用的可选实现方式为:提取各文本片段中的情感词,例如提取文本片段中出现的“无可奈何”、“愤怒”、“兴高采烈”等词语;确定与所提取的情感词对应的情感类型,作为对应各文本片段的语音风格,例如与情感词“兴高采烈”对应的情感类型为“高兴”、与情感词“无可奈何”对应的情感类型为“无奈”等。
[0028]
本实施例执行s102确定的语音风格,即为语音合成结果中音频片段所要体现的情感,本实施例通过确定文本片段的语音风格,能够使得所生成的音频片段更加准确地体现出人物角色的情感变化,从而提高语音合成结果的生动性。
[0029]
可以理解的是,本实施例中的一个情感词对应于唯一的情感类型,而一种情感类型则可能对应多个情感词,从而在尽可能地避免了语音风格冗余的情况下,确保了每个文本片段均能够得到对应的语音风格。
[0030]
另外,若本实施例执行s102时未能够从文本片段中提取情感词,例如该文本片段为旁白,则本实施例将该文本片段的语音风格设置为默认的语音风格,例如设置为“普通”的语音风格,该“普通”的语音风格即为不含有情感变化的语音风格。
[0031]
具体地,本实施例在执行s102确定对应各文本片段的语音音色时,可以采用的可选实现方式为:提取各文本片段中的角色标识;根据所提取的角色标识确定对应各文本片段的语音音色,例如提取出的角色标识可以为“父亲”、“母亲”、“教师”、“张三”等。
[0032]
其中,本实施例在执行s102根据所提取的角色标识确定对应各文本片段的语音音色时,可以根据预先设置的角色-音色对应关系表进行获取。
[0033]
另外,本实施例在执行s102根据所提取的角色标识确定对应各文本片段的语音音色时,可以采用的可选实现方式为:获取由用户输入的、与所提取的角色标识对应的音频数据;提取所获取的音频数据中的音色,作为对应各文本片段的语音音色。
[0034]
也就是说,本实施例可以通过用户实时输入的音频数据来确定各文本片段对应的语音音色,使得文本片段可以根据用户的需求转换为任意音色的音频片段,从而进一步增强了语音合成时的用户参与度,实现了语音合成时多角色的个性化扮演。
[0035]
另外,若本实施例执行s102时未能够从文本片段中提取角色标识,例如该文本片段为旁白,则本实施例将该文本片段的语音音色设置为默认的语音音色,例如设置为“旁白”的语音音色。
[0036]
为了能够进一步提升语音合成的效率,本实施例在执行s102确定分别对应各文本片段的语音风格与语音音色时,可以采用的可选实现方式为:将各文本片段输入预先训练得到的文本解析模型,根据文本解析模型的输出结果来确定分别对应各文本片段的语音风格与语音角色;根据语音角色确定对应各文本片段的语音音色,例如通过查询角色-音色对应关系表确定。其中,本实施例涉及到的文本解析模型,属于深度学习领域的神经网络模型,能够根据所输入的文本片段,输出该文本片段的语音风格与语音角色。
[0037]
本实施例在执行s102确定分别对应各文本片段的语音风格与语音音色之后,执行s103根据各文本片段对应的语音风格与语音音色,将各文本片段分别转化为音频片段。其中,本实施例所转换得到的音频片段具有对应语音风格的情感类型以及对应角色标识的音
色。
[0038]
也就是说,本实施例在进行文本片段的语音合成时,能够同时考虑所合成的音频片段的情感变化与音色个性化,避免了现有技术所合成的音频片段较为单调、刻板的问题,使得合成的音频片段更为真实、生动。
[0039]
本实施例在执行s103根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段时,可以采用的可选实现方式为:将各文本片段、各文本片段对应的语音风格与语音音色输入预先训练得到的音频生成模型,根据音频生成模型的输出结果,得到对应各文本片段的音频片段。其中,本实施例涉及到的音频生成模型,属于深度学习领域的神经网络模型,能够根据所输入的文本片段、该文本片段对应的语音风格与语音音色,生成符合该文本片段的语音风格与语音音色的音频片段。
[0040]
举例来说,若步骤s102确定文本片段1对应的语音风格为“愤怒”,语音音色为“沉稳男性”,则步骤s103所得到的是以“沉稳男性”音色来“愤怒”地说出文本片段1中文本内容的音频片段。
[0041]
本实施例在执行s103将各文本片段分别转换为音频片段之后,执行s104拼接转换得到的音频片段,从而得到待处理文本对应的语音合成结果。
[0042]
具体地,本实施例在执行s104拼接转换得到的音频片段,得到待处理文本对应的语音合成结果时,可以采用的可选实现方式为:根据音频片段对应的文本片段在待处理文本中的先后顺序,依次拼接各音频片段;将各音频片段的拼接结果,作为待处理文本对应的语音合成结果。
[0043]
根据本实施例提供的技术方案,通过确定待处理文本中不同文本片段所对应的语音风格与语音音色,进而使用不同的语音风格与语音音色来转换不同的文本片段,使得对于各文本片段的音频片段具有不同的语音风格与语音音色,提升了语音合成结果中不同角色的发音多样性,并同时增强了语音合成结果的风格表现力,使得语音合成结果更为真实、生动。
[0044]
图2是根据本申请第二实施例的示意图。如图2中所示,本实施例在执行s103根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段时,具体可以包括如下步骤:
[0045]
s201、获取对应所述语音风格的风格编码;
[0046]
s202、利用所述风格编码将文本片段转换为第一声学特征;
[0047]
s203、利用所述语音音色将所述第一声学特征转换为第二声学特征;
[0048]
s204、将所述第二声学特征转换为音频片段。
[0049]
也就是说,本实施例针对每个文本片段,通过分别获取各文本片段对应的风格编码与音色,来实现文本片段到音频片段的转换,确保了转换得到的音频片段具有各自的情感与音色,使得转换得到的音频片段更为真实、生动。
[0050]
其中,本实施例执行s201获取的风格编码具体为梅尔频谱(mel spectrogram),该梅尔频谱为从不同语音风格的音频数据中提取的语音特征,用于反映音频数据中不同的情感类型。
[0051]
可以理解的是,为了使得转换得到的音频片段具有专业般的韵律感和表现力,本实施例中用于提取梅尔频谱的音频数据可以由专业配音演员所录制,所录制的音频数据涵
盖小说文本或者故事文本中出现频次较高的基础风格。
[0052]
通常情况下一个文本片段对应一种语音风格,但也存在一个文本片段对应多种语音风格的情况,多种语音风格会对应多个风格编码,例如与语音风格对应的风格编码为“生气”与“无奈”,现有技术无法同时利用多个风格编码对文本片段进行转换;另外,也存在未能够获取与语音风格对应的风格编码的情况,例如不存在与语音风格“平静”对应的风格编码。上述两种情况都会导致文本片段无法转换为音频片段,从而降低了语音合成的成功率。
[0053]
为了进一步提升语音合成的成功率,本实施例在执行s201获取对应语音风格的风格编码时,可以采用的可选实现方式为:确定对应语音风格的候选风格编码;对所确定的候选风格编码进行插值,将插值结果作为对应语音风格的风格编码。本实施例通过对候选风格编码进行插值的方式,能够实现不同风格编码之间的混合或者某种风格编码的强弱的改变。
[0054]
其中,本实施例在执行s201确定对应语音风格的候选风格编码时,可以将与语音风格对应的多个风格编码作为候选风格编码,例如将与语音风格“生气又无奈”对应的“生气”与“无奈”的风格编码作为候选风格编码;也可以将与语音风格的相似度较高的多个风格编码作为候选风格编码,例如将与语音风格“平静”的相似度较高的“旁白”与“郑重”的风格编码作为候选风格编码。
[0055]
本实施例中s202转换得到的第一声学特征与s204转换得到的第二声学特征具体为梅尔频谱,其中第一声学特征蕴含了特定的风格和文本片段的文本内容,第二声学特征除了蕴含上述内容之外,还蕴含了特定的音色。
[0056]
本实施例在执行s202利用风格编码将文本片段转换为第一声学特征时,可以采用的可选实现方式为:将文本片段与风格编码输入预先训练得到的语音合成模型,将语音合成模型的输出结果作为第一声学特征。其中,本实施例中的语音合成模型能够根据所输入的文本片段与风格编码,输出蕴含特定的风格与文本片段的文本内容的声学特征。
[0057]
本实施例在执行s203利用语音音色将第一声学特征转换为第二声学特征时,可以采用的可选实现方式为:将语音音色与第一声学特征输入预先训练得到的音色转换模型,将音色转换模型的输出结果作为第二声学特征。其中,本实施例中的音色转换模型能够根据输入的声学特征与语音音色,输出蕴含特定的音色的声学特征,仅会改变声学特征中的音色,而不会对声学特征中蕴含的特定的风格与文本片段的文本内容进行改变。本实施例的语音合成模型与音色转换模型属于深度学习领域的神经网络模型。
[0058]
本实施例在执行s204将第二声学特征转换为音频片段,可以使用已有的声码器进行实现,例如使用基于world、straight或者griffin_lim的声码器将声学特征转换为音频片段。
[0059]
图3是根据本申请第三实施例的示意图。如图3中所示,本实施例的语音合成装置,包括:
[0060]
获取单元301、用于获取待处理文本;
[0061]
确定单元302、用于确定所述待处理文本包含的多个文本片段,以及分别对应各文本片段的语音风格与语音音色;
[0062]
合成单元303、用于根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段;
[0063]
处理单元304、用于拼接转换得到的音频片段,得到所述待处理文本对应的语音合成结果。
[0064]
本实施例中由获取单元301获取的待处理文本,可以为包含多角色对白与旁白的文本,例如小说类文本或者故事类文本。
[0065]
本实施例在获取单元301获取了待处理文本之后,由确定单元302确定待处理文本包含的多个文本片段,以及分别对应各文本片段的语音风格与语音音色,即确定单元302所确定的是不同的文本片段具有的不同的语音风格与不同的语音音色。
[0066]
本实施例中确定单元302在确定待处理文本包含的多个文本片段时,可以以句子为单位对待处理文本进行拆分,从而将拆分得到的一个个句子作为待处理文本包含的多个文本片段,所得到的每个文本片段与文本中的旁白或者文本中的某个角色相对应。
[0067]
本实施例中确定单元302确定的语音风格用于表示文本片段的情感类型,可以包含普通、高兴、愤怒、无奈、郑重、惶恐、疑惑、尊重与冷嘲热讽等;确定单元302确定的语音音色用于表示文本片段的说话角色,例如旁白或者具体的人物角色。
[0068]
可以理解的是,本实施例由确定单元302确定的语音音色可以对应待处理文本中的具体人物,例如小说中某个人物的姓名;也可以对应待处理文本中具体人物的职业或者身份,例如教师、医生、父亲、母亲等。
[0069]
具体地,本实施例中确定单元302在确定对应各文本片段的语音风格时,可以采用的可选实现方式为:提取各文本片段中的情感词;确定与所提取的情感词对应的情感类型,作为对应各文本片段的语音风格。
[0070]
本实施例中的确定单元302确定的语音风格,即为语音合成结果中音频片段所要体现的情感,本实施例通过确定文本片段的语音风格,能够使得所生成的音频片段更加准确地体现出人物角色的情感变化,从而提高语音合成结果的生动性。
[0071]
可以理解的是,本实施例中的一个情感词对应于唯一的情感类型,而一种情感类型则可能对应多个情感词,从而在尽可能地避免了语音风格冗余的情况下,确保了每个文本片段均能够得到对应的语音风格。
[0072]
另外,若本实施例中的确定单元302未能够从文本片段中提取情感词,则确定单元302将该文本片段的语音风格设置为默认的语音风格。
[0073]
具体地,本实施例中的确定单元302在确定对应各文本片段的语音音色时,可以采用的可选实现方式为:提取各文本片段中的角色标识;根据所提取的角色标识确定对应各文本片段的语音音色。
[0074]
其中,本实施例中的确定单元302在根据所提取的角色标识确定对应各文本片段的语音音色时,可以根据预先设置的角色-音色对应关系表进行获取。
[0075]
另外,本实施例中的确定单元302在根据所提取的角色标识确定对应各文本片段的语音音色时,可以采用的可选实现方式为:获取由用户输入的、与所提取的角色标识对应的音频数据;提取所获取的音频数据中的音色,作为对应各文本片段的语音音色。
[0076]
另外,若本实施例的确定单元302未能够从文本片段中提取角色标识,则确定单元302将该文本片段的语音音色设置为默认的语音音色。
[0077]
为了能够进一步提升语音合成的效率,本实施例中的确定单元302在确定分别对应各文本片段的语音风格与语音音色时,可以采用的可选实现方式为:将各文本片段输入
预先训练得到的文本解析模型,根据文本解析模型的输出结果来确定分别对应各文本片段的语音风格与语音角色;根据语音角色确定对应各文本片段的语音音色。其中,本实施例涉及到的文本解析模型,能够根据所输入的文本片段,输出该文本片段的语音风格与语音角色。
[0078]
本实施例在确定单元302确定分别对应各文本片段的语音风格与语音音色之后,由合成单元303根据各文本片段对应的语音风格与语音音色,将各文本片段分别转化为音频片段。其中,合成单元303转换得到的音频片段具有对应语音风格的情感类型以及对应角色标识的音色。
[0079]
也就是说,本实施例在进行文本片段的语音合成时,能够同时考虑所合成的音频片段的情感变化与音色个性化,避免了现有技术所合成的音频片段较为单调、刻板的问题,使得合成的音频片段更为真实、生动。
[0080]
本实施例中的合成单元303在根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段时,可以采用的可选实现方式为:将各文本片段、各文本片段对应的语音风格与语音音色输入预先训练得到的音频生成模型,根据音频生成模型的输出结果,得到对应各文本片段的音频片段。其中,本实施例涉及到的音频生成模型,能够根据所输入的文本片段、该文本片段对应的语音风格与语音音色,生成符合该文本片段的语音风格与语音音色的音频片段。
[0081]
另外,本实施例中的合成单元303在根据各文本片段对应的语音风格与语音音色,将各文本片段分别转换为音频片段时,可以采用的可选实现方式为:获取对应语音风格的风格编码;利用风格编码将文本片段转换为第一声学特征;利用语音音色将第一声学特征转换为第二声学特征;将第二声学特征转换为音频片段。
[0082]
也就是说,合成单元303针对每个文本片段,通过分别获取各文本片段对应的风格编码与音色,来实现文本片段到音频片段的转换,确保了转换得到的音频片段具有各自的情感与音色,使得转换得到的音频片段更为真实、生动。
[0083]
其中,本实施例中的合成单元303获取的风格编码具体为梅尔频谱(mel spectrogram),该梅尔频谱为从不同语音风格的音频数据中提取的语音特征,用于反映音频数据中不同的情感类型。
[0084]
为了进一步提升语音合成的成功率,本实施例中的合成单元303在获取对应语音风格的风格编码时,可以采用的可选实现方式为:确定对应语音风格的候选风格编码;对所确定的候选风格编码进行插值,将插值结果作为对应语音风格的风格编码。合成单元303通过对候选风格编码进行插值的方式,能够实现不同风格编码之间的混合或者某种风格编码的强弱的改变。
[0085]
其中,本实施例中的合成单元303在确定对应语音风格的候选风格编码时,可以将与语音风格对应的多个风格编码作为候选风格编码;也可以将与语音风格的相似度较高的多个风格编码作为候选风格编码。
[0086]
本实施例中的合成单元303转换得到的第一声学特征与第二声学特征具体为梅尔频谱,其中第一声学特征蕴含了特定的风格和文本片段的文本内容,第二声学特征除了蕴含上述内容之外,还蕴含了特定的音色。
[0087]
本实施例中的合成单元303在利用风格编码将文本片段转换为第一声学特征时,
可以采用的可选实现方式为:将文本片段与风格编码输入预先训练得到的语音合成模型,将语音合成模型的输出结果作为第一声学特征。其中,本实施例中的语音合成模型能够根据所输入的文本片段与风格编码,输出蕴含特定的风格与文本片段的文本内容的声学特征。
[0088]
本实施例中的合成单元303在利用语音音色将第一声学特征转换为第二声学特征时,可以采用的可选实现方式为:将语音音色与第一声学特征输入预先训练得到的音色转换模型,将音色转换模型的输出结果作为第二声学特征。其中,本实施例中的音色转换模型能够根据输入的声学特征与音色,输出蕴含特定的音色的声学特征,仅会改变声学特征中的音色,而不会对声学特征中蕴含的特定的风格与文本片段的文本内容进行改变。
[0089]
本实施例中的合成单元303在将第二声学特征转换为音频片段,可以使用已有的声码器进行实现,例如使用基于world、straight或者griffin_lim的声码器将声学特征转换为音频片段。
[0090]
本实施例中的合成单元303在将各文本片段分别转换为音频片段之后,由处理单元304拼接转换得到的音频片段,从而得到待处理文本对应的语音合成结果。
[0091]
具体地,本实施例中的处理单元304在拼接转换得到的音频片段,得到待处理文本对应的语音合成结果时,可以采用的可选实现方式为:根据音频片段对应的文本片段在待处理文本中的先后顺序,依次拼接各音频片段;将各音频片段的拼接结果,作为待处理文本对应的语音合成结果。
[0092]
根据本申请的实施例,本申请还提供了一种电子设备和一种计算机可读存储介质。
[0093]
如图4所示,是根据本申请实施例的语音合成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
[0094]
如图4所示,该电子设备包括:一个或多个处理器401、存储器402,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示gui的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图4中以一个处理器401为例。
[0095]
存储器402即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音合成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音合成方法。
[0096]
存储器402作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非
瞬时计算机可执行程序以及模块,如本申请实施例中的搜索表情图片的的方法对应的程序指令/模块(例如,附图3所示的获取单元301、确定单元302、合成单元303以及处理单元304)。处理器401通过运行存储在存储器402中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音合成方法。
[0097]
存储器402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据的电子设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器402可选包括相对于处理器401远程设置的存储器,这些远程存储器可以通过网络连接至语音合成方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0098]
语音合成方法的电子设备还可以包括:输入装置403和输出装置404。处理器401、存储器402、输入装置403和输出装置404可以通过总线或者其他方式连接,图4中以通过总线连接为例。
[0099]
输入装置403可接收输入的数字或字符信息,以及产生与语音合成方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置404可以包括显示设备、辅助照明装置(例如,led)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(lcd)、发光二极管(led)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
[0100]
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用asic(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0101]
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(pld)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
[0102]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用
任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0103]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0104]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps服务(“virtual private server”,或简称“vps”)中,存在的管理难度大,业务扩展性弱的缺陷。
[0105]
根据本申请实施例的技术方案,根据待处理文本中不同文本片段所对应的语音风格与语音音色,将各文本片段分别转换为音频片段,进而拼接各音频片段得到语音合成结果,提升了语音合成结果中不同角色的发音多样性,并同时增强了语音合成结果的风格表现力,使得语音合成结果更为真实、生动。
[0106]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
[0107]
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

起点商标作为专业知识产权交易平台,可以帮助大家解决很多问题,如果大家想要了解更多知产交易信息请点击 【在线咨询】或添加微信 【19522093243】与客服一对一沟通,为大家解决相关问题。

此文章来源于网络,如有侵权,请联系删除

tips