HI,欢迎来到起点商标网!
24小时服务QQ:2880605093

声纹识别模型训练方法、识别方法、电子设备及存储介质与流程

2021-01-28 14:01:45|319|起点商标网
声纹识别模型训练方法、识别方法、电子设备及存储介质与流程

本申请涉及声纹识别技术领域,尤其涉及未知说话人声纹识别模型训练方法、识别方法、电子设备及存储介质。



背景技术:

声纹识别,生物识别技术的一种,也称为说话人识别。声纹识别就是把声信号转换成电信号,再用计算机进行识别。

现有的声纹识别,基于深度学习的声纹识别算法,需要获取大量的数据进行训练,需要单个人跨信道、跨时间,和同时有较长的音频,以提高模型训练的准确度。然后在实际模型使用中经常会经常出现误判,例如将两个人当成一个人,或将一个人当成两个人,因而影响模型的识别精度。



技术实现要素:

有鉴于此,本申请提供一种声纹识别模型训练方法、识别方法、电子设备及存储介质,通过增加不同于原有模型训练集中的音频数据,以从负面例子提高声纹识别模型的准确性判断。

本申请的一些实施方式提供了一种声纹识别模型训练方法。以下从多个方面介绍本申请,以下多个方面的实施方式和有益效果可互相参考。

第一方面,本申请提供一种声纹识别模型训练方法,包括:所述电子设备基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,其中,n个人中的每个人有多条音频,且n个人中的一部分或全部的人有跨时间和跨信道的音频数据,n为大于等于1的自然数;所述电子设备获取m条音频数据,所述m条音频数据来源于未明确身份的说话人;所述电子设备基于第一声纹识别模型对m条音频数据中的声纹特征进行提取,以获得所述m条音频数据中的m条声纹特征,其中,m条音频数据不同于所述n个人的多条音频数据,且m条音频数据为大于等于1的自然数;所述电子设备将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,以获得第二声纹识别模型;所述电子设备基于所述n个人的多条音频数据对所述第二声纹识别模型进行训练,以得到未知说话人声纹识别模型。

本申请的实施例的声纹识别模型训练方法,通过在原有的n个人的音频数据的基础上,增加m条音频数据,且该m条音频数据不同于n个人的音频数据,通过增加m条音频数据的负面例子数据训练的模型,可以有效的提高什么样的声纹特征不是同一个人的判断,因而误判将两个人判断为是同一个人的概率大大降低,进而可以有效提高模型判断的准确性。

在本申请第一方面的实施例中,所述电子设备将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,得到新的说话人分类算法公式li为:

其中,

表示n个人的多条音频数据的可学权重,j属于[1,i-1]或[i+1,n],i表示第i个人,表示m条音频数据的固定权重,k属于[1,m]。

在本申请第一方面的实施例中,所述电子设备基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,包括:

所述电子设备获取n个人的多条音频数据,从每一条音频数据中截取设定时长的音频,并将每一设定时长的音频抽成多维的频谱图;

所述电子设备将所述多维的频谱图送入卷积神经网络中,获得n个人的多条音频数据的声纹特征;

所述电子设备基于所述n个人的多条音频数据的声纹特征做说话人分类计算,并获得第一声纹识别模型。

在本申请第一方面的实施例中,该方法还包括:所述电子设备基于未知说话人声纹识别模型再次对m条音频数据中的声纹特征进行提取,以获得所述m条音频数据中的m条新的声纹特征,并将m条新的声纹特征作为固定权重,并基于n个人的多条音频数据对未知说话人声纹识别模型再次进行训练。

第二方面,本申请提供一种音频数据的声纹识别方法,应用于电子设备,所述方法包括:所述电子设备获取待识别的音频数据;所述电子设备基于未知说话人声纹识别模型对所述待识别的音频数据的声纹特征进行提取;所述电子设备对所述待识别的音频数据的声纹特征f1与标准的声纹特征f2进行1:1比对计算,计算出所述声纹特征f1和所述声纹特征f2的余弦相似度,当该余弦相似度大于等于设定阈值,则所述声纹特征f1和所述声纹特征f2对应的人为同一个人,当该余弦相似度小于设定阈值,则所述声纹特征f1和所述声纹特征f2对应的人不属于同一个人。

在本申请第二方面的实施例中,所述未知说话人声纹识别模型的训练方法包括:所述电子设备基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,其中,n个人中的每个人有多条音频,且n个人中的一部分或全部的人有跨时间和跨信道的音频数据,n为大于等于1的自然数;所述电子设备获取m条音频数据,,所述m条音频数据来源于未明确身份的说话人;所述电子设备基于第一声纹识别模型对m条音频数据中的声纹特征进行提取,以获得所述m条音频数据中的m条声纹特征,其中,m条音频数据不同于所述n个人的多条音频数据,且m条音频数据为大于等于1的自然数;所述电子设备将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,以获得第二声纹识别模型;所述电子设备基于所述n个人的多条音频数据对所述第二声纹识别模型进行训练,以得到未知说话人声纹识别模型。

本申请的实施例采用第一方面实施例的声纹识别模型训练方法得到的未知说话人声纹识别模型,可以有效的提高什么样的声纹特征不是同一个人的判断,因而误判将两个人判断为是同一个人的概率大大降低,进而可以有效提高模型判断的准确性。

在本申请第二方面的实施例中,所述电子设备将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,得到新的说话人分类算法公式li为:

其中,

表示n个人的多条音频数据的可学权重,j属于[1,i-1]或[i+1,n],i表示第i个人,表示m条音频数据的固定权重,k属于[1,m]。

在本申请第二方面的实施例中,所述电子设备基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,包括:所述电子设备获取n个人的多条音频数据,从每一条音频数据中截取设定时长的音频,并将每一设定时长的音频抽成多维的频谱图;所述电子设备将所述多维的频谱图送入卷积神经网络中,获得n个人的多条音频数据的声纹特征;所述电子设备基于所述n个人的多条音频数据的声纹特征做说话人分类计算,并获得第一声纹识别模型。

在本申请第二方面的实施例中,方法还包括:所述电子设备基于未知说话人声纹识别模型再次对m条音频数据中的声纹特征进行提取,以获得所述m条音频数据中的m条新的声纹特征,并将m条新的声纹特征作为固定权重,并基于n个人的多条音频数据对未知说话人声纹识别模型再次进行训练。

第二方面,本申请还提供一种电子设备,包括:处理模块,所述处理模块基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,其中,n个人中的每个人有多条音频,且n个人中的一部分或全部的人有跨时间和跨信道的音频数据,n为大于等于1的自然数;获取模块,所述获取模块获取m条音频数据,所述m条音频数据来源于未明确身份的说话人;所述处理模块基于第一声纹识别模型对m条音频数据中的声纹特征进行提取,以获得所述m条音频数据中的m条声纹特征,其中,m条音频数据不同于所述n个人的多条音频数据,且m条音频数据为大于等于1的自然数;所述处理模块将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,以获得第二声纹识别模型;所述处理模块基于所述n个人的多条音频数据对所述第二声纹识别模型进行训练,以得到未知说话人声纹识别模型。

本申请的实施例的电子设备,通过在原有的n个人的音频数据的基础上,增加m条音频数据,且该m条音频数据不同于n个人的音频数据,通过增加m条音频数据的负面例子数据训练的模型,可以有效的提高什么样的声纹特征不是同一个人的判断,因而误判将两个人判断为是同一个人的概率大大降低,进而可以有效提高模型判断的准确性。

在本申请第三方面的实施例中,所述处理模块将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,得到新的说话人分类算法公式li为:

其中,

表示n个人的多条音频数据的可学权重,j属于[1,i-1]或[i+1,n],i表示第i个人,表示m条音频数据的固定权重,k属于[1,m]。

在本申请第三方面的实施例中,所述处理模块基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,包括:所述处理模块从n个人的多条音频数据中的每一条音频数据中截取设定时长的音频,并将每一设定时长的音频抽成多维的频谱图;所述处理模块将所述多维的频谱图送入卷积神经网络中,获得n个人的多条音频数据的声纹特征;所述处理模块基于所述n个人的多条音频数据的声纹特征做说话人分类计算,并获得第一声纹识别模型。

在本申请第三方面的实施例中,电子设备还包括:所述处理模块基于未知说话人声纹识别模型再次对m条音频数据中的声纹特征进行提取,以获得所述m条音频数据中的m条新的声纹特征,并将m条新的声纹特征作为固定权重,并基于n个人的多条音频数据对未知说话人声纹识别模型再次进行训练。

第四方面,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器运行时,使得所述处理器执行第一方面和第二方面实施例所述的方法。

附图说明

图1为本申请一个实施例的声纹识别系统的场景图;

图2为本申请一个实施例的声纹识别模型训练方法的流程图;

图3为本申请实施例的音频数据的频谱图;

图4为本申请实施例的音频数据的声纹识别方法的流程图;

图5为本申请实施例的电子设备的结构示意图;

图6为本申请一些实施例的一种设备的框图;

图7为本申请一些实施例的一种片上系统(soc)的框图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。

可以理解的是,如本文所使用的,术语“模块””可以指代或者包括专用集成电路(asic)、电子电路、执行一个或多个软件或固件程序的处理器(共享、专用、或群组)和/或存储器、组合逻辑电路、和/或提供所描述的功能的其他适当硬件组件,或者可以作为这些硬件组件的一部分。

可以理解的是,在本申请各实施例中,处理器可以是微处理器、数字信号处理器、微控制器等,和/或其任何组合。根据另一个方面,所述处理器可以是单核处理器,多核处理器等,和/或其任何组合。

下面将结合具体场景对本申请的实施例进行描述。

参考图1,图1示出了声纹识别系统的场景图,在该场景中,包括电子设备110和云端服务器120,其中,电子设备110可以从云端服务器120中获取n个人的多条音频数据和m条音频数据,其中,n个人中的每个人有多条音频,且n个人中的一部分或全部的人有跨时间和跨信道的音频数据,m条音频数据不同于n个人的多条音频数据,m条音频数据可以由单个人的不跨信道、不跨时间10s左右的短音频数据组成,且m条音频数据是来源于未明确身份的说话人,也就是说,m条音频数据的具体说话人的身份是未知的。电子设备110可以基于n个人的多条音频数据、m条音频数据和卷积神经网络(convolutionalneuralnetwork,cnn)或循环神经网络(recurrentneuralnetwork,rnn)。进行训练得到未知说话人声纹识别模型。

在电子设备110进行声纹识别时,可以将待识别的音频数据输入该未知说话人模型中,可以得到更加精准的待识别的音频数据的声纹特征。

由于该模型基于在原有的n个人的音频数据的基础上,增加m条音频数据训练得到,且该m条音频数据不同于n个人的音频数据,引入了m条音频数据的负面例子数据训练的模型,可以有效的提高什么样的声纹特征不是同一个人的判断,因而误判将两个人判断为是同一个人的概率大大降低,进而可以有效提高模型判断的准确性。

在本申请的另一个实施例中,模型训练的过程也可以在云端服务器120,电子设备110可以与云端服务器进行通信,以获取训练好的未知说话人声纹识别模型。在此并不作为限定。

本申请中的电子设备,电子设备可以是手机、笔记本电脑、平板电脑、桌上型电脑、膝上型电脑、超级移动个人计算机(ultra-mobilepersonalcomputer,umpc)、手持计算机、上网本、个人数字助理(personaldigitalassistant,pda)、可穿戴电子设备等具有声纹识别功能的设备。

本申请中提及的初始的声纹识别模型,为便于下文的理解和区分,将初始的声纹识别模型记作第一声纹识别模型。电子设备110在基于初始的声纹识别模型对m条音频数据中的声纹特征进行提取,以获得m条音频数据中的m条声纹特征,并将m条声纹特征作为固定权重,加入说话人分类算法中,以获得第二声纹识别模型,电子设备基于n个人的多条音频数据对第二声纹识别模型进行训练,以得到未知说话人声纹识别模型。

下面将结合附图对本申请的实施例作进一步地详细描述。

图2示出了声纹识别模型训练方法的流程图。该方法由电子设备执行。如图2所示,该流程图包括:

步骤210,获取n个人的多条音频数据。其中,n个人中的每个人有多条音频,例如,2000个人有50000条音频数据,且2000个人中的一部分或全部的人有跨时间和跨信道的音频数据,n为大于等于1的自然数。该n个人的多条音频数据可以电子设备是从云端服务器获取得到,云端服务器可以基于与其通信连接的多个设备中获取。

本申请中的跨时间的音频数据是指,同一个说话人在不同的时间段的音频数据,跨信道的音频数据是指,同一个说话人通过不同的信号传输的媒介输入的音频数据。

步骤220,基于n个人的多条音频数据和神经网络模型训练得到第一声纹识别模型。其中,神经网络模型可以是cnn模型或rnn模型。其中第一声纹识别模型的说话人分类的推到公式为:

其中,

在上面的公式中,对于分子的部分越大越好,即xi越像wi,其中,xi表示第i个人在某一个训练样例中得到的声纹特征,wi表示第i个人标准的声纹特征。对于分母部分越小越好,即xi越不像其他wj,其中j属于[1,i-1]或[i+1,n]。也就是说,在1∶1比对时,当两个声纹特征越相像,则两个声纹特征的余弦相似度cos(θi)越大。在两个声纹特征越不相像时,则xi和其他的wj的余弦相似度cos(θi)越小。

步骤230,获取m条音频数据。其中,m条音频数据来源于未明确身份的说话人,m条音频数据不同于n个人的多条音频数据,且m条音频数据为大于等于1的自然数,例如,可以是10000条音频数据、20000条音频数据等。

步骤240,将m条音频数据输入步骤220中获取的第一声纹识别模型中,并提取出m条音频数据的声纹特征wk,k属于[1,m]。

步骤250,将m条对应的声纹特征wk作为固定权重并加入说话人分类算法中,形成新的说话人分类算法公式,如下:

其中,表示n个人的多条音频数据的可学权重,j属于[1,i-1]或[i+1,n],i表示第i个人,表示m条音频数据的固定权重,k属于[1,m]。

步骤260,得到第二声纹识别模型。基于上述说话人分类公式中增加m条音频数据的固定权重部分,以得到第二声纹识别模型。

步骤270,将n个人的多条音频数据输入第二声纹识别模型中。在增加m条声纹特征后,在基于n个人的多条音频数对第二声纹识别模型进行训练可以得到准确度更高的新的声纹模型,即获取步骤280中的未知说话人声纹识别模型。该模型由于加入了m条音频数据,且该m条音频数据与n个人的多条音频数不同,形成负面例子,即可以增强了什么样声纹特征不是同一个人的准确度。进而在声纹识别过程中,当某一个音频数据的声纹特征不确定是不是a(指某一个具体人)的时候,但是可以排除一定不是b(不同于a的人)。从而通过增加负面例子,提高了声纹识别模型的准确性。

在本申请的实施例中,还可以在训练一段时间后,回到步骤240-步骤270,只是将第一声纹识别模型换成最新的声纹识别模型,在使用最新的声纹识别模型更新m条音频数据的声纹特征,以更新后m条声纹特征作为固定权重,在对n个人的音频数据进行训练。以不断完善未知说话人声纹识别模型,提高未知说话人声纹识别模型对声纹识别的准确性。

在本申请的一个实施例中,步骤220还进一步包括以下步骤:

步骤221,将n个人的多条音频数据中的每一条分别截取设定时长,并得到多维的频谱图。例如,对多条音频数据中的每一条截取3秒音频,得到对的3秒的f×d维的频谱图,参考图3所示的3秒音频的多维频谱图。

步骤222,提取n个人的多条音频数据中的声纹特征。将上述f×d维的频谱图送入cnn或rnn中,在经过聚合得到声纹特征。

步骤223,在经过声纹特征进行说话人分类,以得到第一声纹识别模型。其中,说话人分类是指将提取的声纹特征与n个人相对应。例如,有2000人,50000个音频数据,将这个50000个音频数据分别对应2000个人。

下面结合附图对本申请实施例的利用未知说话人音频数据的声纹识别方法进行描述。

参考图4,图4示出了音频数据的声纹识别方法的流程图,该方法应用于电子设备中,具体包括以下步骤:

步骤410,获取待识别的音频数据。例如,随机在网络中下载一段音频数据。

步骤420,基于未知说话人声纹识别模型对待识别的音频数据的声纹特征进行提取。也就是说,将上述待识别的音频数据输入至训练好的未知说话人声纹识别模型中,以获得该待识别的音频数据的声纹特征。其中,未知说话人声纹识别模型的训练方法可参考图2所示的训练过程,在此不在赘述。

步骤430,对待识别的音频数据的声纹特征f1与标准的声纹特征f2进行1:1比对计算,计算出声纹特征f1和声纹特征f2的余弦相似度,例如使用上述训练过程中的公式进行计算,公式如下:

步骤440,根据步骤430的计算结果与设定阈值比较,判断两个声纹特征是否为同一个人,或不属于指定的其他人。例如,假设余弦相似度为1时,声纹特征f1和声纹特征f2一定属于同一个人,那么,将第一阈值设为0.8,只要余弦相似度大于等于0.8,则电子设备判断声纹特征f1和声纹特征f2是同一个人。将第二阈值设为0.5,则电子设备判断声纹特征f1和声纹特征f2一定不是同一个人。也就是说,当余弦相似度为0.7时,可能存在是同一个人或不是同一个人的情况,那么,不确定的情况下,首先可以排除待识别的声纹特征一定不是除当前比对声纹特征之外的某个人的声纹特征。从而可以从反面的信息排除一些干扰的声纹特征,使得识别的准确性得到提高。

本申请实施例的音频数据的声纹识别方法,通过在原有的n个人的音频数据的基础上,增加m条音频数据,且该m条音频数据不同于n个人的音频数据,通过增加m条音频数据的负面例子数据训练的模型,可以有效的提高什么样的声纹特征不是同一个人的判断,因而误判将两个人判断为是同一个人的概率大大降低,进而可以有效提高模型判断的准确性。

基于上面的描述,下面具体描述本申请的一种电子设备,该电子设备用于执行上述各方法实施例。图5示出了电子设备的结构示意图。如图5所示,该电子设备包括:

处理模块510,处理模块基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,其中,n个人中的每个人有多条音频,且n个人中的一部分或全部的人有跨时间和跨信道的音频数据,n为大于等于1的自然数;

获取模块520,获取模块获取m条音频数据;

处理模块510基于第一声纹识别模型对m条音频数据中的声纹特征进行提取,以获得m条音频数据中的m条声纹特征,其中,m条音频数据不同于n个人的多条音频数据,且m条音频数据为大于等于1的自然数;

处理模块510将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,以获得第二声纹识别模型;

处理模块510基于n个人的多条音频数据对第二声纹识别模型进行训练,以得到未知说话人声纹识别模型。

根据本申请的一个实施例,处理模块510将m条声纹特征作为固定权重,加入第一声纹识别模型的说话人分类算法中,得到新的说话人分类算法公式li为:

其中,

表示n个人的多条音频数据的可学权重,j属于[1,i-1]或[i+1,n],i表示第i个人,表示m条音频数据的固定权重,k属于[1,m]。

根据本申请的一个实施例,处理模块510基于n个人的多条音频数据作为训练样本集进行训练获得第一声纹识别模型,包括:

处理模块510从n个人的多条音频数据中的每一条音频数据中截取设定时长的音频,并将每一设定时长的音频抽成多维的频谱图;

处理模块510将多维的频谱图送入卷积神经网络中,获得n个人的多条音频数据的声纹特征;

处理模块510基于n个人的多条音频数据的声纹特征做说话人分类计算,并获得第一声纹识别模型。

根据本申请的一个实施例,电子设备还包括:处理模块基于未知说话人声纹识别模型再次对m条音频数据中的声纹特征进行提取,以获得m条音频数据中的m条新的声纹特征,并将m条新的声纹特征作为固定权重,并基于n个人的多条音频数据对未知说话人声纹识别模型再次进行训练。

本申请实施例中的电子设备的各模块具体作用在上述实施例中已经详细的说明,具体可参见上述实施例图2和图4所示的方法,在此不在赘述。

本申请实施例的电子设备,执行上述方法,通过在原有的n个人的音频数据的基础上,增加m条音频数据,且该m条音频数据不同于n个人的音频数据,通过增加m条音频数据的负面例子数据训练的模型,可以有效的提高什么样的声纹特征不是同一个人的判断,因而误判将两个人判断为是同一个人的概率大大降低,进而可以有效提高模型判断的准确性。

本申请还提供了一种电子设备,包括:

存储器,用于存储由设备的一个或多个处理器执行的指令,以及

处理器,用于执行上述实施例的图2和图4中描述的方法。

本申请还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器运行时,使得处理器执行上述实施例的图2和图4中描述的方法。

现在参考图6,所示为根据本申请的一个实施例的设备1200的框图。设备1200可以包括耦合到控制器中枢1203的一个或多个处理器1201。对于至少一个实施例,控制器中枢1203经由诸如前端总线(frontsidebus,fsb)之类的多分支总线、诸如快速通道互连(quickpathinterconnect,qpi)之类的点对点接口、或者类似的连接1206与处理器1201进行通信。处理器1201执行控制一般类型的数据处理操作的指令。在一实施例中,控制器中枢1203包括,但不局限于,图形存储器控制器中枢(graphicsmemorycontrollerhub,gmch)(未示出)和输入/输出中枢(inputoutputhub,ioh)(其可以在分开的芯片上)(未示出),其中gmch包括存储器和图形控制器并与ioh耦合。

设备1200还可包括耦合到控制器中枢1203的协处理器1202和存储器1204。或者,存储器和gmch中的一个或两者可以被集成在处理器内(如本申请中所描述的),存储器1204和协处理器1202直接耦合到处理器1201以及控制器中枢1203,控制器中枢1203与ioh处于单个芯片中。存储器1204可以是例如动态随机存取存储器(dynamicrandomaccessmemory,dram)、相变存储器(phasechangememory,pcm)或这两者的组合。在一个实施例中,协处理器1202是专用处理器,诸如例如高吞吐量mic处理器(manyintegeratedcore,mic)、网络或通信处理器、压缩引擎、图形处理器、通用图形处理器(generalpurposecomputingongpu,gpgpu)、或嵌入式处理器等等。协处理器1202的任选性质用虚线表示在图6中。

存储器1204作为计算机可读存储介质,可以包括用于存储数据和/或指令的一个或多个有形的、非暂时性计算机可读介质。例如,存储器1204可以包括闪存等任何合适的非易失性存储器和/或任何合适的非易失性存储设备,例如一个或多个硬盘驱动器(hard-diskdrive,hdd(s)),一个或多个光盘(compactdisc,cd)驱动器,和/或一个或多个数字通用光盘(digitalversatiledisc,dvd)驱动器。

在一个实施例中,设备1200可以进一步包括网络接口(networkinterfacecontroller,nic)1206。网络接口1206可以包括收发器,用于为设备1200提供无线电接口,进而与任何其他合适的设备(如前端模块,天线等)进行通信。在各种实施例中,网络接口1206可以与设备1200的其他组件集成。网络接口1206可以实现上述实施例中的通信单元的功能。

设备1200可以进一步包括输入/输出(input/output,i/o)设备1205。i/o1205可以包括:用户界面,该设计使得用户能够与设备1200进行交互;外围组件接口的设计使得外围组件也能够与设备1200交互;和/或传感器设计用于确定与设备1200相关的环境条件和/或位置信息。

值得注意的是,图6仅是示例性的。即虽然图6中示出了设备1200包括处理器1201、控制器中枢1203、存储器1204等多个器件,但是,在实际的应用中,使用本申请各方法的设备,可以仅包括设备1200各器件中的一部分器件,例如,可以仅包含处理器1201和nic1206。图6中可选器件的性质用虚线示出。

根据本申请的一些实施例,作为计算机可读存储介质的存储器1204上存储有指令,该指令在计算机上执行时使系统1200执行根据上述实施例中的方法,具体可参照上述实施例的方法,在此不再赘述。

现在参考图7,所示为根据本申请的一实施例的soc(systemonchip,片上系统)1300的框图。在图7中,相似的部件具有同样的附图标记。另外,虚线框是更先进的soc的可选特征。在图7中,soc1300包括:互连单元1350,其被耦合至应用处理器1310;系统代理单元1380;总线控制器单元1390;集成存储器控制器单元1340;一组或一个或多个协处理器1320,其可包括集成图形逻辑、图像处理器、音频处理器和视频处理器;静态随机存取存储器(staticrandomaccessmemory,sram)单元1330;直接存储器存取(dma)单元1360。在一个实施例中,协处理器1320包括专用处理器,诸如例如网络或通信处理器、压缩引擎、gpgpu、高吞吐量mic处理器、或嵌入式处理器等。

静态随机存取存储器(sram)单元1330中可以包括用于存储数据和/或指令的一个或多个计算机可读介质。计算机可读存储介质中可以存储有指令,具体而言,存储有该指令的暂时和永久副本。该指令可以包括:由处理器中的至少一个单元执行时使soc1300执行根据上述实施例中的方法,具体可参照上述实施例的方法,在此不再赘述。

本申请公开的机制的各实施例可以被实现在硬件、软件、固件或这些实现方法的组合中。本申请的实施例可实现为在可编程系统上执行的计算机程序或程序代码,该可编程系统包括至少一个处理器、存储系统(包括易失性和非易失性存储器和/或存储元件)、至少一个输入设备以及至少一个输出设备。

可将程序代码应用于输入指令,以执行本申请描述的各功能并生成输出信息。可以按已知方式将输出信息应用于一个或多个输出设备。为了本申请的目的,处理系统包括具有诸如例如数字信号处理器(digitalsignalprocessor,dsp)、微控制器、专用集成电路(applicationspecificintegratedcircuit,asic)或微处理器之类的处理器的任何系统。

程序代码可以用高级程序化语言或面向对象的编程语言来实现,以便与处理系统通信。在需要时,也可用汇编语言或机器语言来实现程序代码。事实上,本申请中描述的机制不限于任何特定编程语言的范围。在任一情形下,该语言可以是编译语言或解释语言。

在一些情况下,所公开的实施例可以以硬件、固件、软件或其任何组合来实现。所公开的实施例还可以被实现为由一个或多个暂时或非暂时性机器可读(例如,计算机可读)存储介质承载或存储在其上的指令,其可以由一个或多个处理器读取和执行。例如,指令可以通过网络或通过其他计算机可读介质分发。因此,机器可读介质可以包括用于以机器(例如,计算机)可读的形式存储或传输信息的任何机制,包括但不限于,软盘、光盘、光碟、光盘只读存储器(compactdiscreadonlymemory,cd-roms)、磁光盘、只读存储器(readonlymemory,rom)、随机存取存储器(ram)、可擦除可编程只读存储器(erasableprogrammablereadonlymemory,eprom)、电可擦除可编程只读存储器(electricallyerasableprogrammablereadonlymemory,eeprom)、磁卡或光卡、闪存、或用于利用因特网以电、光、声或其他形式的传播信号来传输信息(例如,载波、红外信号数字信号等)的有形的机器可读存储器。因此,机器可读介质包括适合于以机器(例如,计算机)可读的形式存储或传输电子指令或信息的任何类型的机器可读介质。

在附图中,可以以特定布置和/或顺序示出一些结构或方法特征。然而,应该理解,可能不需要这样的特定布置和/或排序。而是,在一些实施例中,这些特征可以以不同于说明书附图中所示的方式和/或顺序来布置。另外,在特定图中包括结构或方法特征并不意味着暗示在所有实施例中都需要这样的特征,并且在一些实施例中,可以不包括这些特征或者可以与其他特征组合。

需要说明的是,本申请各设备实施例中提到的各单元/模块都是逻辑单元/模块,在物理上,一个逻辑单元/模块可以是一个物理单元/模块,也可以是一个物理单元/模块的一部分,还可以以多个物理单元/模块的组合实现,这些逻辑单元/模块本身的物理实现方式并不是最重要的,这些逻辑单元/模块所实现的功能的组合才是解决本申请所提出的技术问题的关键。此外,为了突出本申请的创新部分,本申请上述各设备实施例并没有将与解决本申请所提出的技术问题关系不太密切的单元/模块引入,这并不表明上述设备实施例并不存在其它的单元/模块。

需要说明的是,在本专利的示例和说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

虽然通过参照本申请的某些优选实施例,已经对本申请进行了图示和描述,但本领域的普通技术人员应该明白,可以在形式上和细节上对其作各种改变,而不偏离本申请的精神和范围。

起点商标作为专业知识产权交易平台,可以帮助大家解决很多问题,如果大家想要了解更多知产交易信息请点击 【在线咨询】或添加微信 【19522093243】与客服一对一沟通,为大家解决相关问题。

此文章来源于网络,如有侵权,请联系删除

tips