一种语音识别方法、语音识别装置及终端设备与流程
本申请属于语音识别技术领域,尤其涉及一种语音识别方法、语音识别装置、终端设备及计算机可读存储介质。
背景技术:
语音识别已经深入人们的生活(比如,微信app的语音转文字功能),然而,目前的语音识别技术,识别出的文字有可能与我们想表达的意思并不相同,比如,对语音“我要看电影”的语音识别的结果可能是“我要看店”或者是“我药看电影”。因此,目前亟待提出一种具有较高识别准确率的语音识别方法。
技术实现要素:
有鉴于此,本申请提供了一种语音识别方法、语音识别装置、终端设备及计算机可读存储介质,可以在一定程度上提高语音信号的识别准确率。
本申请第一方面提供了一种语音识别方法,包括:
获取待识别的语音信号;
提取上述语音信号的特征,得到上述语音信号的特征序列;
将上述特征序列输入至训练后的第一神经网络模型,以使得该训练后的第一神经网络模型识别上述语音信号,得到上述第一神经网络模型输出的第一信号,该第一信号用于表示上述语音信号的文字信息;
其中,上述第一神经网络模型为基于注意力机制的编解码模型,该编解码模型包括编码模型以及解码模型,该编码模型以及该解码模型均包括多头注意力层multi-headattentionlayer;
该编码模型中每个前馈层feedforwardlayer均连接有多头注意力层,该解码模型中每个前馈层也均连接有多头注意力层。
本申请第二方面提供了一种语音识别装置,包括:
语音获取模块,用于获取待识别的语音信号;
特征提取模块,用于用于提取上述语音信号的特征,得到该语音信号的特征序列;
语音识别模块,用于将上述特征序列输入至训练后的第一神经网络模型,以使得该训练后的第一神经网络模型识别上述语音信号,得到上述第一神经网络模型输出的第一信号,该第一信号用于表示上述语音信号的文字信息;
其中,上述第一神经网络模型为基于注意力机制的编解码模型,该编解码模型包括编码模型以及解码模型,该编码模型以及该解码模型均包括多头注意力层multi-headattentionlayer;
该编码模型中每个前馈层feedforwardlayer均连接有多头注意力层,该解码模型中每个前馈层也均连接有多头注意力层。
本申请第三方面提供了一种终端设备,包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时实现如上述第一方面的语音识别方法。
本申请第四方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如上述第一方面的语音识别方法。
本申请第五方面提供了一种计算机程序产品,上述计算机程序产品包括计算机程序,上述计算机程序被一个或多个处理器执行时实现如上述第一方面的语音识别方法。
由上可见,本申请提供了一种语音识别方法,通过训练后的第一神经网络模型识别待识别的语音信号,得到用于表示该语音信号文字信息的第一信号,其中,该第一神经网络模型为基于注意力机制的编解码模型,该编解码模型中编码模型的每个前馈层均连接多头注意力层,该编解码模型中解码模型的每个前馈层也均连接有多头注意力层,这样可以使得注意力机制嵌入到编码模型的内部结构以及解码模型的内部结构中。注意力机制用于语音识别的神经网络模型中时,可以在一定程度上提高该神经网络模型的语音识别准确度,并且本申请进一步将注意力机制应用在了语音识别的神经网络模型的内部结构中,进一步提高了该神经网络模型的识别准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例一提供的一种语音识别方法的实现流程示意图;
图2是本申请实施例一提供的一种第二神经网络模型的结构示意图;
图3是本申请实施例一提供的一种第一神经网络模型的结构示意图;
图4是本申请实施例一提供的对附图3所示的第一神经网络模型的一种训练方法示意图;
图5是本申请实施例一提供的性能测试结果表;
图6是本申请实施例提二供的一种语音识别装置的结构示意图;
图7是本申请实施例三提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
本申请实施例提供的语音识别方法适用于终端设备,示例性地,该终端设备包括但不限于:智能手机、数码相机、掌上电脑、笔记本、桌上型计算机、智能可穿戴设备等。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
另外,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
实施例一
下面对本申请实施例一提供的语音识别方法进行描述,该语音识别方法应用于终端设备。请参阅图1,本申请实施例一的语音识别方法包括:
在步骤s101中,获取待识别的语音信号;
在本申请实施例中,上述待识别的语音信号可以是用户通过麦克风输入至该终端设备的语音信号;或者,可以是用户从互联网上下载的语音信号;或者,还可以是该终端设备本地存储的音视频文件中的语音信号。本申请对上述语音信号的来源不作限定。
在步骤s102中,提取上述语音信号的特征,得到该语音信号的特征序列;
通常情况下,在利用神经网络模型对语音信号进行处理之前,需要首先对该语音信号进行预处理,即提取该语音信号的特征序列。其中,上述特征序列可以为梅尔mel频率的倒谱系数(melfrequencycepstrumcoefficient,mfcc)、线性感知预测系数(perceptuallinearpredictive,plp)或者mel滤波器组系数(melfilterbank,fbank)等。
在步骤s103中,将上述特征序列输入至训练后的第一神经网络模型中,以使得该训练后的第一神经网络模型识别上述语音信号,得到上述第一神经网络模型输出的第一信号,该第一信号用于表示上述语音信号的文字信息;
在本申请实施例中,上述第一神经网络模型为基于注意力机制的编解码模型,该编解码模型包括编码模型以及解码模型,该编码模型以及该解码模型均包括多头注意力层multi-headattentionlayer,该编码模型中每个前馈层feedforwardlayer均连接有多头注意力层,该解码模型中每个前馈层也均连接有多头注意力层。
该步骤s103所述的“文字信息”可以为拼音信息、中文文字信息、英文文字信息或者日文文字信息等,本申请并不对文字信息的具体表现形式进行限定。
通常情况下,用户往往希望当通过麦克风输入中文语音信号时,能够获取到该中文语音信号对应的中文文字信息,比如,当通过麦克风输入中文语音“我今天晚上6点到家”时,能够获取到终端设备转换的中文文字“我今天晚上6点到家”。为了实现该功能,可以采用如下方法来实现:
方法一、直接将上述第一神经网络模型训练为将中文语音信号转换为中文文字信息的神经网络模型(此时,上述步骤s101中的“语音信号”具体为“中文语音信号”,步骤s102中的“文字信息”具体为“中文文字信息”)。这样,在获取到待识别的中文语音信号x之后,直接利用该第一神经网络模型将中文语音信号x转换成用于表示中文文字信息的信号。
方法二、若利用上述方法一所述的端到端的语音识别方法,会存在如下技术问题:由于目前中文词汇更新速度很快,许多新的中文词汇不断出现,比如社畜、奔奔族、学术超男、皓镧传等,因此,为了提高方法一中第一神经网络模型的语音识别准确度,需要频繁更新训练样本库,并利用更新后的训练样本库重新训练该第一神经网络模型,而由于语音特征的复杂性,用于语音识别的神经网络模型往往需要较长的训练时间,因此,上述方法一存在“为了匹配中文词汇的更新速度,由于需频繁重新训练第一神经网络模型,使得每次训练均需要大量的训练时间”的技术问题。为了解决方法一存在的该技术问题,可以采用如下方法二:
首先,将上述第一神经网络模型训练为用于将中文语音信号转换为拼音信息的神经网络模型(此时,上述步骤s101中的“语音信号”具体为“中文语音信号”,步骤s103中的“文字信息”具体为“拼音信息”),并训练第二神经网络模型,该第二神经网络模型用于将带有拼音信息的信号转换为中文文字信息,其中,该第二神经网络模型可以为rnn模型(比如深度双向长短期记忆网络deep-bilstm)或cnn模型(如图2所示,为本申请提供的一种将带有拼音信息的信号转换为中文文字信息的第二神经网络模型的结构示意图);
其次,在训练完成该第一神经网络模型以及该第二神经网络模型之后,当获取到待识别的中文语音信号y时,先利用该第一神经网络模型,得到第一信号,该第一信号用于表示该中文语音信号y的拼音信息,再将该第一信号输入至该第二神经网络模型,得到该第二神经网络模型输出的第二信号,该第二信号用于表示该语音信号y的中文文字信息(本领域技术人员容易理解,若上述第二神经网络模型训练为将带有拼音信息的信号转换为外文文字信息,通过该第一神经网络模型以及该第二神经网络模型,可以实现将中文语音转换为外文文字)。
在上述方法二中,为了保证语音识别的准确度,匹配中文词汇的更新速度,本领域技术人员能够理解,我们不需要频繁训练该第一神经网络模型,只需要对上述第二神经网络模型频繁训练即可,而对于文字转文字的神经网络模型来说,训练时长相对较短,因此,在该方法二的例子中,为了匹配中文词汇的更新速度,我们只需要频繁训练第二神经网络模型即可,而第二神经网络模型的训练时长较短,因此,该方法二在一定程度上解决了上述方法一存在的技术问题。
在本申请实施例一中,我们还对用于语音识别的第一神经网络模型的结构进行了改进。当把注意力机制引入到用于语音识别的第一神经网络模型中时,可以在一定程度上提高第一神经网络模型的语音识别准确度,但是目前在利用编解码模型进行语音识别时,通常是在编码模型以及解码模型之间嵌入注意力网络,并没有将注意力机制引入到编码模型以及解码模型的具体结构中,而本申请将注意力机制引入到了编码模型以及解码模型的前馈层中,可以在一定程度上进一步增加语音识别的准确度。
下面利用附图3详细描述本申请所述的第一神经网络模型的一种结构,本领域技术人员应该知晓,附图3所示的例子仅仅是本申请中第一神经网络模型的一种示例,并不构成对第一神经网络模型结构的限定。
本申请的第一神经网络模型包括编码模型以及解码模型,该编码模型的前馈层以及多头注意力层的层数可以是相同的,假设为n1层(n1为大于0的整数,在附图3所示的例子中,n1=3),该解码模型中前馈层以及多头注意力层的层数也可以是相同的,假设为n2层(n2为大于0的整数,在附图3所示的例子中,n2=3)。
该编码模型中每一层前馈层均连接有多头注意力层相连,具体的连接方式可以是:该编码模型中第i1层前馈层的输入端均连接该编码模型中第i1层多头注意力层的输出端,i1=1……n1,当n1>1时,该编码模型中第j1层前馈层的输出端还与该编码模型中第j1+1层多头注意力层的输入端相连,j1=1……n1-1。如图3所示,编码模型中第1层多头注意力层multi-headerattentionlayer1、第1层前馈层feedforwardlayer1、第2层多头注意力层multi-headattentionlayer2、第2层前馈层feedforwardlayer2、第3层多头注意力层multi-headattentionlayer3以及第3层前馈层feedforwardlayer3依次连接。
该解码模型中每一层前馈层均连接有多头注意力层相连,具体的连接方式可以是:该解码模型中第i2层前馈层的输入端均连接该解码模型中第i2层多头注意力层的输出端,i2=1……n2,当n2>1时,该解码模型中第j2层前馈层的输出端还与该解码模型中第j2+1层多头注意力层的输入端相连,j2=1……n2-1。如图3所示,解码模型中第1层多头注意力层multi-headerattentionlayer1、第1层前馈层feedforwardlayer1、第2层多头注意力层multi-headattentionlayer2、第2层前馈层feedforwardlayer2、第3层多头注意力层multi-headattentionlayer3以及第3层前馈层feedforwardlayer3依次连接。此外,在本申请中,若n2>1,该解码模型中第i3层前馈层还可以对应有第i3层掩饰多头注意力层maskmulti-headattentionlayer,i3=2……n2,具体地,该解码模型中的第j2层前馈层的输出端可以通过该解码模型中第j2+1层掩饰多头注意力层与该解码模型中的第j2+1层多头注意力层的输入端相连。也即是,在附图3所示的例子中,解码模型中的第1层前馈层feedforwardlayer1可以通过第2层掩饰多头注意力层maskmulti-headattentionlayer与第2层多头注意力层multi-headerattentionlayer2相连,解码模型中的第2层前馈层feedforwardlayer2通过第3层掩饰多头注意力层与第3层多头注意力层multi-headerattentionlayer3相连。
此外,该编码模型中还可以包括全连接层以及位置嵌入层,该解码模型还可以包括全连接层以及最大值层argmaxlayer,该编码模型的全连接层以及该编码模型的位置嵌入层用于接收待识别的语音信号,该全连接层以及该位置嵌入层的输出之和输入至该编码模型中第一层多头注意力层,该解码模型的第n2层前馈层的输出连接该解码模型的全连接层的输入,该解码模型的全连接层的输出端连接至最大值层的输入,该最大值层用于输出上述步骤s102所述的第一信号(具体可参见附图3)。此外,如图3所示,编码模型的第n1层前馈层的输出端可以连接至解码模块的第一层多头注意力层。
下面利用附图4论述一种附图3所示的第一神经网络模型的训练方法。本领域技术人员应该知晓,除了附图4所示的训练方法,附图3所示的第一神经网络模型还可以采用现有技术中常用的其他训练方法。然而,附图4所述的训练方法相比于传统的训练方法,可以进一步提高附图3所示模型的语音识别准确度。
在利用附图4对附图3所示的编解码模型进行训练时,需要在该编解码模型的解码模型中增加如下结构:该解码模型还包括标签嵌入层以及位置嵌入层,其中,该标签嵌入层以及该解码模型中的位置嵌入层用于在训练该编解码模型时接收样本语音信号对应标签的维度(在训练该编解码模型时,输入标签对应的维度相比于通常的只输入标签的方式,可以进一步提高训练后模型的语音识别准确度),此外,该解码模型的第一层多头注意力层对应有第一层掩饰多头注意力层,该第一层掩饰多头注意力层用于接收上述标签嵌入层以及该解码模型中位置嵌入层的输出之和,并且该第一层掩饰多头注意力层的输出端连接该解码模型的第一层多头注意力层。如图4所示,通过步骤s401-s404得到训练后的第一神经网络模型。
在步骤s401中,获取各个样本语音信号以及各个样本语音信号分别对应的标签;
若为了将附图3所示的编解码模型(即第一神经网络模型)训练为将中文语音信号转换为拼音信息的神经网络,则该步骤s401获取的各个样本语音信号应均为中文语音信号,每个样本语音信号对应的标签应为包含该样本语音信号对应拼音信息的信号。
在步骤s402中,对于每个样本语音信号,将该样本语音信号的特征序列输入至附图3中编码模型中的全连接层以及该编码模型中的位置嵌入层,并将该样本语音信号对应标签的维度输入至上述标签嵌入层以及该解码模型中的位置嵌入层,得到每个样本语音信号对应的预测信号;
该附图4提供的训练方法需要将每个样本语音信号对应的标签的维度(比如,若标签x用于表示的拼音信息为:wo3yao4kan4dian4ying3,则该标签x的维度为5,即:若样本语音信号为中文,则标签的维度为该标签表示的字的数量,若样本语音信号为英文,则标签的维度为该标签表示的词的数量)输入至解码模型的标签嵌入层以及解码模型的位置嵌入层。
该步骤s402所述的“预测信号”用于表示输入至附图3中第一神经网络模型的样本语音信号的文字信息。
在步骤s403中,根据各个样本语音信号对应的标签以及各个预测信号,确定附图3中编解码模型的语音识别准确度;
在步骤s404中,不断调整该编解码模型中各个层的参数,直至其语音识别准确度达到预设准确度为止;
以各个样本语音信号对应的标签为基准,通过观测各个预测信号,确定该编解码模型的语音识别准确度,并不断调整各个层的参数,直至语音识别准确度达到预设准确度为止。
下面依据附图5描述对本申请所提供的技术方案的性能测试。首先,利用附图4所示的训练方法,得到用于将中文语音信号转换为拼音信息的第一神经网络模型model1(在训练该model1时,需对提取样本语音信号的mfcc序列),并利用附图2所示的第二神经网络模型结构,训练得到用于将带有拼音信息的信号转换为中文文字信息的model2(该model2的训练方法可以为传统的训练方法,此处不再赘述)时;其次,利用4000小时的测试音频数据,检测model1的错误率、model2的错误率以及将model1以及model2级联的错误率。具体数据可参见附图5。从附图5可以得知,本申请所提供的技术方案错误率较低。
应理解,上述方法实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例二
本申请实施例二提供了一种语音识别装置,为便于说明,仅示出与本申请相关的部分,如图6所示,语音识别装置600包括:
语音获取模块601,用于获取待识别的语音信号;
特征提取模块602,用于提取上述语音信号的特征,得到该语音信号的特征序列;
语音识别模块603,用于将上述特征序列输入至训练后的第一神经网络模型,以使得上述训练后的第一神经网络模型识别上述语音信号,得到上述第一神经网络模型输出的第一信号,该第一信号用于表示上述语音信号的文字信息;
其中,上述第一神经网络模型为基于注意力机制的编解码模型,该编解码模型包括编码模型以及解码模型,该编码模型以及该解码模型均包括多头注意力层multi-headattentionlayer;
该编码模型中每个前馈层feedforwardlayer均连接有多头注意力层,该解码模型中每个前馈层也均连接有多头注意力层。
可选地,上述语音信号为中文语音信号,上述文字信息为该中文语音信号的拼音信息;
相应地,上述语音识别装置600还包括:
第二语音识别模块,用于将上述第一信号输入至训练后的第二神经网络模型,得到上述第二神经网络模型输出的第二信号,该第二信号用于表示上述语音信号的中文文字信息或外文文字信息,上述第二神经网络模型模型为循环神经网络rnn模型或者卷积神经网络cnn模型。
可选地,上述编码模型中前馈层以及多头注意力层的层数均为n1,上述解码模型中前馈层以及多头注意力层的层数均为n2,n1以及n2均为大于0的整数;
相应地,上述编码模型中前馈层与多头注意力层的连接方式具体为:
上述编码模型中的第i1层前馈层的输入端连接上述编码模型中的第i1层多头注意力层的输出端,i1=1……n1;
若n1>1时,上述编码模型中第j1层前馈层的输出端还与上述编码模型中的第j1+1层多头注意力层的输入端相连,j1=1……n1-1;
相应地,上述解码模型中前馈层与多头注意力层的连接方式具体为:
上述解码模型中的第i2层前馈层的输入端连接上述解码模型中第i2层多头注意力层的输出端,i2=1……n2;
若n2>1时,上述解码模型中的第j2层前馈层的输出端还与上述解码模型中的第j2+1层多头注意力层的输入端相连,j2=1……n2-1。
可选地,若n2>1,上述解码模型中第i3层前馈层对应有第i3层掩饰多头注意力层maskmulti-headattentionlayer,i3=2……n2;
相应地,上述解码模型中的第j2层前馈层的输出端还与上述解码模型中的第j2+1层多头注意力层的输入端相连,具体为:
上述解码模型中的第j2层前馈层的输出端通过上述解码模型中第j2+1层掩饰多头注意力层与上述解码模型中的第j2+1层多头注意力层的输入端相连。
可选地,上述编码模型以及上述解码模型均包括全连接层denselayer,上述编码模型还包括位置嵌入层positionembeddinglayer,上述解码模型还包括最大值层argmaxlayer;
上述编码模型的全连接层以及上述编码模型的位置嵌入层用于接收上述语音信号的特征序列,上述编码模型的全连接层以及上述编码模型的位置嵌入层的输出信号之和输入至上述编码模型中第一层多头注意力层,上述编码模型的第n1层前馈层的输出端连接至上述解码模型的第一层多头注意力层;
上述解码模型的第n2层前馈层的输出端连接至上述解码模型的全连接层的输入端,上述解码模型的全连接层的输出端连接至上述最大值层,上述最大值层的输出为所述第一信号。
可选地,上述解码模型还包括标签嵌入层以及位置嵌入层,其中,上述标签嵌入层以及上述解码模型中的位置嵌入层用于在训练上述编解码模型时接收样本语音信号对应标签的维度,上述解码模型的第一层多头注意力层对应有第一层掩饰多头注意力层,上述第一层掩饰多头注意力层用于接收上述标签嵌入层以及上述解码模型中位置嵌入层的输出之和,并且上述第一层掩饰多头注意力层的输出端连接上述解码模型的第一层多头注意力层;
相应地,上述通过以下模块训练上述编解码模型:
样本获取模块,用于获取各个样本语音信号以及各个样本语音信号分别对应的标签;
预测信号得到模块,用于对于每个样本语音信号,将该样本语音信号的特征序列输入至上述编码模型中的全连接层以及上述编码模型中的位置嵌入层,并将该样本语音信号对应标签的维度输入至上述标签嵌入层以及上述解码模型中的位置嵌入层,得到每个样本语音信号对应的预测信号;
准确度确定模块,用于根据各个样本语音信号对应的标签以及各个预测信号,确定上述编解码模型的语音识别准确度;
参数调整模块,用于不断调整上述编解码模型中各个层中的参数,直至其语音识别准确度达到预设准确度为止。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
实施例三
图7是本申请实施例四提供的终端设备的示意图。如图7所示,该实施例的终端设备包括:处理器70、存储器71以及存储在上述存储器71中并可在上述处理器70上运行的计算机程序72。上述处理器70执行上述计算机程序72时实现上述图片处理方法实施例中的步骤,例如图1所示的步骤s101至s103。或者,上述处理器70执行上述计算机程序72时实现上述各装置实施例中各模块/单元的功能,例如图6所示模块601至603的功能。
示例性的,上述计算机程序72可以被分割成一个或多个模块/单元,上述一个或者多个模块/单元被存储在上述存储器71中,并由上述处理器70执行,以完成本申请。上述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述上述计算机程序72在上述终端设备7中的执行过程。例如,上述计算机程序72可以被分割成语音获取模块、特征提取模块以及语音识别模块,各模块具体功能如下:
获取待识别的语音信号;
提取上述语音信号的特征,得到上述语音信号的特征序列;
将上述特征序列输入至训练后的第一神经网络模型,以使得该训练后的第一神经网络模型识别上述语音信号,得到上述第一神经网络模型输出的第一信号,该第一信号用于表示上述语音信号的文字信息;
其中,上述第一神经网络模型为基于注意力机制的编解码模型,该编解码模型包括编码模型以及解码模型,该编码模型以及该解码模型均包括多头注意力层multi-headattentionlayer;
该编码模型中每个前馈层feedforwardlayer均连接有多头注意力层,该解码模型中每个前馈层也均连接有多头注意力层。
上述终端设备可包括,但不仅限于,处理器70、存储器71。本领域技术人员可以理解,图7仅仅是终端设备7的示例,并不构成对终端设备7的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如上述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器70可以是中央处理单元(centralprocessingunit,cpu),还可以是其它通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(field-programmablegatearray,fpga)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述存储器71可以是上述终端设备7的内部存储单元,例如终端设备7的硬盘或内存。上述存储器71也可以是上述终端设备7的外部存储设备,例如上述终端设备7上配备的插接式硬盘,智能存储卡(smartmediacard,smc),安全数字(securedigital,sd)卡,闪存卡(flashcard)等。进一步地,上述存储器71还可以既包括上述终端设备7的内部存储单元也包括外部存储设备。上述存储器71用于存储上述计算机程序以及上述终端设备所需的其它程序和数据。上述存储器71还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读介质可以包括:能够携带上述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,上述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
起点商标作为专业知识产权交易平台,可以帮助大家解决很多问题,如果大家想要了解更多知产交易信息请点击 【在线咨询】或添加微信 【19522093243】与客服一对一沟通,为大家解决相关问题。
此文章来源于网络,如有侵权,请联系删除