HI,欢迎来到起点商标网!
24小时服务QQ:2880605093

基于TextCNN的药物小分子靶点活性预测方法和装置与流程

2021-01-08 13:01:19|348|起点商标网
基于TextCNN的药物小分子靶点活性预测方法和装置与流程

本发明涉及分子靶点技术领域,具体涉及一种基于textcnn的药物小分子靶点活性预测方法、一种基于textcnn的药物小分子靶点活性预测装置、一种计算机设备和一种非临时性计算机可读存储介质。



背景技术:

新药研发周期十分漫长,包括靶点选择与验证、从苗头化合物(hit)的发现到先导化合物(lead)最后到候选药物(candidate)的发现与优化,层层筛选,成本高昂。我们希望通过计算机进行虚拟筛选,基于现有药物相关的生物化学数据库,充分挖掘药物分子背后的规律,加速发现药物研发的速度,如对新靶点蛋白苗头化合物的发现和评估。

传统的药物特征预测的方法通过使用分子描述符(包括1d/2d/3d/高维描述符,比如分子量等物理化学性质)作为输入特征,进行定量构效关系或构效关系(qsar/qspr)建模,目前已经开发了超过5000个分子描述符。然而,这种大量使用分子描述符的建模方法的算法模型预测表现非常取决于是否能选择有效的分子描述符特征。在进行特征工程方面费时费力的同时,算法模型的泛化和通用能力也极大取决于所训练的模型质量。并且,存在以下问题:(1)在数据集数量较少的情况下,训练容易出现过拟合现象,模型的泛化能力不强,特征表示的好与坏决定了机器学习方法的性能,而且在进行生物信息学这些交叉学科的研究时,不仅需要有人工智能的相关知识,还需要有任务相关领域的专家帮助设计特征,这使得研究存在一个比较高的门槛,同时,特征设计的过程十分消耗时间和精力,因为从数据中抽取和组织区分性强的信息是非常困难;(2)药物数据中经常存在数据不平衡问题。



技术实现要素:

本发明为解决上述技术问题,提供了一种基于textcnn的药物小分子靶点活性预测方法,能够提高药物靶点预测虚拟筛选的准确率,有效进行药物分子筛选和特征预测,模型本身的泛化与通用能力较强,具有极大的实用价值。

本发明采用的技术方案如下:

一种基于textcnn的药物小分子靶点活性预测方法,包括以下步骤:对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集;在训练阶段,导入训练集中的药物文本数据,在所述textcnn模型的嵌入层对药物文本数据集中的已编码的自然语言进行向量化;在所述textcnn模型的卷积层对所述嵌入层进行卷积操作,以提取特征;在所述textcnn模型的最大池化层对所述卷积层提取的特征进行最大池化;在所述textcnn模型的全连接层对所述最大池化层后得到的特征向量进行全连接操作,得到分类结果;在测试阶段,采用所述测试集中药物文本数据进行测试,根据测试结果调整所述textcnn模型得到最终的textcnn模型;根据所述最终的textcnn模型对所述药物小分子靶点活性预测。

根据本发明的一个实施例,对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集,包括:获取药物小分子数据中所有药物小分子的smiles字符串;采用独热编码one-hot的形式对药物小分子的smiles字符串进行编码,并将编码后的药物文本数据集分为训练集和测试集。

根据本发明的一个实施例,上述的基于textcnn的药物小分子靶点活性预测方法,还包括:采用smote方法对所述训练集中的少数类样本进行过采样,得到处理后的训练集;根据所述处理后的训练集对所述textcnn模型进行训练。

根据本发明的一个实施例,在所述textcnn模型的嵌入层对药物文本数据集中的已编码的自然语言进行向量化,包括:将所述smiles字符串编码成密集向量,便于训练的嵌入层。

根据本发明的一个实施例,在所述textcnn模型的卷积层对所述嵌入层进行卷积操作,以提取特征,包括:所述smiles字符串经过嵌入层处理后,得到一个二维矩阵;使用多个卷积核对嵌入层中的二维矩阵进行卷积操作,得到多个一维向量。

根据本发明的一个实施例,在所述textcnn模型的最大池化层对所述卷积层提取的特征进行最大池化,包括:对所示卷积操作后得到的所述多个一维向量取最大值,并拼接一起,作为所述最大池化层的输出值,以对所述卷积层得到的特征进行提取和降维。

根据本发明的一个实施例,在所述测试阶段,设置迭代次数,使用adam优化器优化网格参数;在所述训练阶段,通过五折交叉验证的方法进行训练,以减小模型过拟合。

对应上述的方法,本发明还提出了一种基于textcnn的药物小分子靶点活性预测装置,包括:预处理模块,用于对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集;模型训练模块,用于在训练阶段,导入训练集中的药物文本数据,在嵌入层对药物文本数据集中的已编码的自然语言进行向量化,在卷积层对所述嵌入层进行卷积操作,以提取特征,在最大池化层对所述卷积层提取的特征进行最大池化,在全连接层对所述最大池化层后得到的特征向量进行全连接操作,得到分类结果;模型测试模块,用于采用测试集中药物文本数据进行测试,根据测试结果调整textcnn模型,得到最终的textcnn模型;预测模块,用于根据所述最终的textcnn模型对所述药物小分子靶点活性预测。

对应上述方法,本发明还提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现上述的基于textcnn的药物小分子靶点活性预测方法。

对应上述方法,本发明还提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的基于textcnn的药物小分子靶点活性预测方法。

本发明的有益效果:

本发明通过one-hot独热编码的方法来处理分子的特征,无需计算额外的分子结构或者物理化学特征和进行特征工程的前提下,极大地缩短了特征提取时间和模型训练成本,并且创新使用了文本分类的textcnn方法,有利于提高药物靶点预测虚拟筛选的准确率,有效进行药物分子筛选和特征预测,模型本身的泛化与通用能力较强,具有极大的实用价值。

附图说明

图1为本发明实施例的基于textcnn的药物小分子靶点活性预测方法的流程图;

图2为本发明一个实施例的预测结果示意图;

图3为本发明一个实施例的基于textcnn的药物小分子靶点活性预测装置的方框示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

图1为本发明实施例的基于textcnn的药物小分子靶点活性预测方法的流程图。

如图1所示,本发明实施例的基于textcnn的药物小分子靶点活性预测方法可包括以下步骤:

s1,对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集。

根据本发明的一个实施例,对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集,包括:获取药物小分子数据中所有药物小分子的smiles字符串;采用独热编码one-hot的形式对药物小分子的smiles字符串进行编码,并将编码后的药物文本数据集分为训练集和测试集。

具体而言,获得当前数据集所有药物小分子smiles字符串的字符,统计字符串长度最大值和字符的类别个数,并采用独热编码one-hot的形式对药物分子smiles结构式进行编码,并且统计字符的位置构建药物分子最终的向量。

进一步地,根据本发明的一个实施例,上述的基于textcnn的药物小分子靶点活性预测方法,还包括:采用smote方法对训练集中的少数类样本进行过采样,得到处理后的训练集;根据处理后的训练集对textcnn模型进行训练。

具体而言,在数据集数量较少的情况下,训练容易出现过拟合现象,因此,通过采用smote方法对训练集中的少数样本进行过采样,得到处理后的训练集。具体地,对于训练集,当属于少数类样本时,对于少数类中每一个样本x,以欧氏距离为标准计算它到少数类样本集中所有样本的距离,得到其k近邻;根据样本不平衡比例设置一个采样比例以确定采样倍率n,对于每一个少数类样本x,从其k近邻中随机选择若干个样本,组成集合x;对于每一个随机近邻样本分别与样本x按照构建新的样本x’;将每个新生成的数据以欧式距离为标准计算它到所有样本的距离,得到其k邻近,若其k邻近的多数类不是生成该数据的少数类,则删除该数据;将训练集x中每条样本进行归一化处理;对训练集中单个样本末尾进行补0操作,填充样本特征序列,由此得到处理后的训练集。其中,当不是少数类样本时,直接将训练集x中每条样本进行归一化处理;对训练集中单个样本末尾进行补0操作,填充样本特征序列,得到处理后的训练集。

s2,在训练阶段,导入训练集中的药物文本数据,在textcnn模型的嵌入层对药物文本数据集中的已编码的自然语言进行向量化。

根据本发明的一个实施例,在textcnn模型的嵌入层对药物文本数据集中的已编码的自然语言进行向量化,包括:将smiles字符串编码成密集向量,便于训练的嵌入层。

具体而言,将输入的自然语言即simles字符串编码成密集向量。通过对比使用预训练好的词向量,和直接在训练textcnn的过程中训练出的一套词向量,前者与后者相比表现更优。如果使用预训练好的词向量,又分为通过使用static方法和no-static方法进行训练,前者是指在训练textcnn过程中不再调节词向量的参数,后者在训练过程中调节词向量的参数,所以,后者的结果比前者要好。更为一般的做法是:不要在每一个批次都调节嵌入层,而是每个100个批次调节一次,这样不仅可以减少训练的时间,还可以微调词向量。

s3,在textcnn模型的卷积层对嵌入层进行卷积操作,以提取特征。

根据本发明的一个实施例,在textcnn模型的卷积层对嵌入层进行卷积操作,以提取特征,包括:smiles字符串经过嵌入层处理后,得到一个二维矩阵;使用多个卷积核对嵌入层中的二维矩阵进行卷积操作,得到多个一维向量。

具体而言,输入的语句或者文本,通过嵌入层后,会转变成一个二维矩阵,假设文本的长度为|t|,词向量的大小为|d|,则该二维矩阵的大小为|t|*|d|,接下的卷积工作就是对这一个|t|*|d|的二维矩阵进行的。卷积核的大小一般设定为n*|d|,其中,n是卷积核的长度,|d|是卷积核的宽度,这个宽度和词向量的维度是相同的,也就是卷积只是沿着文本序列进行的,n可以有多种选择,比如2、3、4、5等。对于一个|t|*|d|的文本,如果选择卷积核的大小为n*|d|,则卷积后得到的结果是|t-n+1|*1的一个向量。在textcnn模型中,需要同时使用多个不同类型的卷积核,同时每种大小的卷积核又可以有多个。我们的模型经过kernel_sizes=(2,3,4)的一维卷积层,每个kernel_size有两个输出channel。

s4,在textcnn模型的最大池化层对卷积层提取的特征进行最大池化。

根据本发明的一个实施例,在textcnn模型的最大池化层对卷积层提取的特征进行最大池化,包括:对所示卷积操作后得到的多个一维向量取最大值,并拼接一起,作为最大池化层的输出值,以对卷积层得到的特征进行提取和降维。

具体而言,对卷积后得到的若干个一维向量取最大值,然后拼接在一块,作为本层的输出值。如果卷积核的大小为2,3,4,5,每种大小的卷积核都有128个,那么经过卷积层后会得到4*128个一维的向量再经过最大池化之后,会得到4*128个值,拼接在一块,得到最终的结构—512*1的向量。最大池化层的意义在于对卷积层提取的特征,提取激活程度最大的特征。

s5,在textcnn模型的全连接层对最大池化层后得到的特征向量进行全连接操作,得到分类结果。

s6,在测试阶段,采用测试集中药物文本数据进行测试,根据测试结果调整textcnn模型,得到最终的textcnn模型。需要说明的是,根据调整后的模型表现和学习曲线,确定训练的次数,防止模型出现过拟合。假设设定的训练次数为10次,当模型表现和学习曲线满足要求时,为了防止模型出现过拟合,可提前停止训练。

具体而言,根据测试结果,可使用反向传播来调整权重和偏置,以此来调整textcnn模型:采用测试集对模型进行测试,测试结果与实际结果存在一个误差,用如下的代价函数来衡量这个误差:

其中,w为权重,b为偏置,n为输入数据的个数,a表示输入为x时的实际输出,a为w和b的函数,y为预计输出,是关于x的函数,||||表示向量的模;要使误差变小,就是最小化代价函数,也就是使代价函数的变化量为负,即说明输出的预测值在接近实际值,直到无限接近;代价函数的变化量为权重对代价函数求偏导乘以权重的变化量再加上偏置对代价函数求偏导乘以偏置的变化量,设定权重和偏置的变化量为一个负数乘以其对代价函数的偏导,也就说明其二阶导数为负,即一阶导数在不断减小,即原函数在不断减小,从而达到实际输出接近预计输出的目的;这个负数的绝对值定义为学习率η,每训练设定次数,采用测试集对当前训练的模型进行测试,根据测试结果与实际结果,对代价函数求偏导,并调整权重和偏置为:

进而调整textcnn模型。

在本发明的一些实施例中,模型的评价指标包括准确率、精确率、召回率、roc曲线下的面积、混淆矩阵中的一个或多个。也就是说,根据这些评价指标确定模型调整的次数。

其中,准确率accuracy是指预测正确的结果占总样本的百分比,本发明实施例所评估的是历史预测数据库中的真实预测数据,也即本发明实施例模型评估中涉及的样本是指历史真实预测数据的集合。准确率accuracy的公式如下:

accuracy=(tp+tn)/(tp+tn+fp+fn)

其中,tp(truepositive,真正例)是指被模型预测为正的正样本,fp(falsepositive,假正例)是指被模型预测为正的负样本,fn(falsenegative,假负例)是指被模型预测为负的正样本,tn(truenegative,真负例)是指被模型预测为负的负样本。

精准率precision又叫查准率,它是针对预测结果而言的,是指在所有被预测为正的样本中实际为正的样本的概率,意思就是在预测为正样本的结果中,有多少把握可以预测正确。精准率precision的公式如下:

precision=tp/(tp+fp)

召回率recall又叫查全率,它是针对原样本而言的,是指在实际为正的样本中被预测为正样本的概率。召回率recall的公式如下:

recall=tp/(tp+fn)

roc(receiveroperatingcharacteristic)曲线,又称接受者操作特征曲线。roc曲线中的主要两个指标是真正率tpr和假正率fpr,其中横坐标为假正率fpr,纵坐标为真正率tpr。

真正率tpr(truepositiverate),又称灵敏度,公式如下:

tpr=tp/(tp+fn)

假正率fpr(falsepositiverat),又称特异度,公式如下:

fpr=fp/(tn+fp)

roc曲线具有当正负样本的分布变化的时候,roc曲线能够保持不变的良好特性,能够很好地消除样本类别不平衡对指标结果产生的影响。

roc曲线下的面积auc(areaundercurve),是处于roc曲线下方的那部分面积的大小。roc曲线下方面积越大表明模型性能越好,auc就是由此产生的评价指标。通常,auc的值介于0.5到1.0之间,较大的auc代表了较好的预测表现。如果模型是完美的,那么它的auc=1,证明所有正例排在了负例的前面,如果模型是个简单的二类随机猜测模型,那么它的auc=0.5,如果一个模型好于另一个,则它的曲线下方面积相对较大,对应的auc值也会较大。

混淆矩阵(confusionmatrix)又被称为错误矩阵,通过它可以直观地观察到算法的效果。它的每一列是样本的预测分类,每一行是样本的真实分类(反过来也可以),它反映了分类结果的混淆程度。

本发明实施例可以以上述任一评价指标来评估历史真实预测表现的优劣,也可以以多个评价指标来评估历史真实预测表现的优劣。

在本发明的优选实施例中,以roc曲线下的面积auc来评估历史真实预测表现的优劣,若预测模型对应的auc最大,则该预测模型的真实预测效果最好。

当以多个评价指标来评估历史真实预测表现的优劣时,每个评价指标可具有相应的权重,以多个评价指标所得结果的加权平均值作为各种预测方式的历史真实预测表现的评估依据,若预测模型对应的加权平均值最大,则该预测模型的真实预测效果最好。优选地,roc曲线下的面积auc的权重最高。

s7,根据最终的textcnn模型对药物小分子靶点活性预测。

根据本发明的一个实施例,在测试阶段,设置迭代次数,使用adam优化器优化网格参数;在训练阶段,通过五折交叉验证的方法进行训练,以减小模型过拟合。

也就是说,在建立模型之后,通过参数调节优化算法表现,通过全空间搜索的方法优化几个重要参数:学习率,激活函数,维度等,获得更好的模型预测能力和表现。模型中引入了dropout以及正则化(五折交叉验证)来减小模型过拟合,选用adam优化器的学习率成指数下降,在一定程度上避免了由于学习率引起的,随着迭代次数增大loss没有减小的情况,防止模型欠拟合,图2为采用本发明的预测结果示意图。

综上所述,本发明将人工智能深度学习算法与药物研发有效结合,实现了能够通过药物小分子的结构分子式特征有效预测药物分子的性质,如靶点结合性质、活性、毒性等,从而为解决药物虚拟筛选时构建算法耗时耗力和通用性不强的问题提供理论基础与技术支撑,进一步为药物研发提供更多有效的性质预测方案。

对应上述实施例的基于textcnn的药物小分子靶点活性预测方法,本发明还提出一种基于textcnn的药物小分子靶点活性预测装置。

图3为本发明一个实施例的基于textcnn的药物小分子靶点活性预测装置的方框示意图。

如图3所示,本发明实施例的基于textcnn的药物小分子靶点活性预测装置可包括:预处理模块10、模型训练模块20、模型测试模块30和预测模块40。

其中,预处理模块10用于对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集。模型训练模块20用于在训练阶段,导入训练集中的药物文本数据,在嵌入层对药物文本数据集中的已编码的自然语言进行向量化,在卷积层对嵌入层进行卷积操作,以提取特征,在最大池化层对卷积层提取的特征进行最大池化,在全连接层对最大池化层后得到的特征向量进行全连接操作,得到分类结果。模型测试模块30用于采用测试集中药物文本数据进行测试,根据测试结果调整textcnn模型,得到最终的textcnn模型。预测模块40用于根据最终的textcnn模型对药物小分子靶点活性预测。

根据本发明的一个实施例,预处理模块10对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集,具体用于,获取药物小分子数据中所有药物小分子的smiles字符串;采用独热编码one-hot的形式对药物小分子的smiles字符串进行编码,并将编码后的药物文本数据集分为训练集和测试集。

根据本发明的一个实施例,预处理模块10还用于,采用smote方法对训练集中的少数类样本进行过采样,得到处理后的训练集;模型训练模块20根据处理后的训练集对textcnn模型进行训练。

根据本发明的一个实施例,模型训练模块20在textcnn模型的嵌入层对药物文本数据集中的已编码的自然语言进行向量化时,具体用于,将smiles字符串编码成密集向量,便于训练的嵌入层。

根据本发明的一个实施例,模型训练模块20在textcnn模型的卷积层对嵌入层进行卷积操作,以提取特征时,具体用于,smiles字符串经过嵌入层处理后,得到一个二维矩阵;使用多个卷积核对嵌入层中的二维矩阵进行卷积操作,得到多个一维向量。

根据本发明的一个实施例,模型训练模块20在textcnn模型的最大池化层对卷积层提取的特征进行最大池化时,具体用于,对所示卷积操作后得到的多个一维向量取最大值,并拼接一起,作为最大池化层的输出值,以对卷积层得到的特征进行提取和降维。

根据本发明的一个实施例,模型测试模块30在测试阶段,设置迭代次数,使用adam优化器优化网格参数;模型训练模块20在训练阶段,通过五折交叉验证的方法进行训练,以减小模型过拟合。

需要说明的是,本发明实施例的基于textcnn的药物小分子靶点活性预测装置装置中未披露的细节,请参照本发明实施例的基于textcnn的药物小分子靶点活性预测方法中所披露的细节,具体这里不再赘述。

综上,本发明将人工智能深度学习算法与药物研发有效结合,实现了能够通过药物小分子的结构分子式特征有效预测药物分子的性质,如靶点结合性质、活性、毒性等,从而为解决药物虚拟筛选时构建算法耗时耗力和通用性不强的问题提供理论基础与技术支撑,进一步为药物研发提供更多有效的性质预测方案。

对应上述实施例,本发明还提出一种计算机设备。

本发明实施例的计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行该计算机程序时,可实现根据本发明上述实施例所述的基于textcnn的药物小分子靶点活性预测方法。

根据本发明实施例的计算机设备,处理器执行存储在存储器上的计算机程序时,首先对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集,然后进行模型训练和模型测试,最后根据最终测试后的textcnn模型对药物小分子靶点活性预测,能够提高药物靶点预测虚拟筛选的准确率,有效进行药物分子筛选和特征预测,模型本身的泛化与通用能力较强,具有极大的实用价值。

对应上述实施例,本发明还提出一种非临时性计算机可读存储介质。

本发明实施例的非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时可实现根据本发明上述实施例所述的基于textcnn的药物小分子靶点活性预测方法。

根据本发明实施例的非临时性计算机可读存储介质,处理器执行存储在其上的计算机程序时,首先对待训练和测试的药物小分子数据进行预处理,得到自然语言和编码后的药物文本数据集,分为训练集和测试集,然后进行模型训练和模型测试,最后根据最终测试后的textcnn模型对药物小分子靶点活性预测,能够提高药物靶点预测虚拟筛选的准确率,有效进行药物分子筛选和特征预测,模型本身的泛化与通用能力较强,具有极大的实用价值。

根据本发明实施例的计算机程序产品,处理器执行其中的指令时,首先。

在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。“多个”的含义是两个或两个以上,除非另有明确具体的限定。

在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。

在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。

在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。

本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。

此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。

上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

起点商标作为专业知识产权交易平台,可以帮助大家解决很多问题,如果大家想要了解更多知产交易信息请点击 【在线咨询】或添加微信 【19522093243】与客服一对一沟通,为大家解决相关问题。

此文章来源于网络,如有侵权,请联系删除

tips