空间音频表示和渲染的制作方法
本申请涉及用于空间音频表示和渲染的装置和方法,但不是仅限于用于音频解码器的音频表示。
背景技术:
沉浸式音频编解码器正被实现,以支持范围从低比特率操作到透明性的大量操作点。这种编解码器的示例是沉浸式语音和音频服务(ivas)编解码器,其被设计为适合于在诸如3gpp4g/5g网络之类的通信网络上使用,包括在诸如例如用于虚拟现实(vr)的沉浸式语音和音频之类的沉浸式服务中使用。该音频编解码器被预期处理语音、音乐和通用音频的编码、解码和渲染。此外还被预期支持基于通道的音频和基于场景的音频输入,包括关于声场和声源的空间信息。编解码器还被预期以低延迟进行操作,以启用会话服务并在各种传输条件下支持高差错鲁棒性。
输入信号可以以多种支持格式之一(以及以一些允许的格式组合)来被呈现给ivas编码器。例如,可以使用增强型语音服务(evs)编码器对单通道音频信号(无元数据)进行编码。其它输入格式可以利用新的ivas编码工具。针对ivas提出的一种输入格式是元数据辅助空间音频(masa)格式,其中编码器可以利用例如单通道和立体声编码工具以及元数据编码工具的组合来用于格式的有效传输。masa是适用于空间音频处理的参数化空间音频格式。参数化空间音频处理是使用一组参数来描述声音(或声音场景)的空间方面的音频信号处理领域。例如,在来自麦克风阵列的参数化空间音频捕获中,从麦克风阵列信号中估计一组参数(例如,声音在频带中的方向,所捕获的声音在频带中的方向性部分和非方向性部分的相对能量,例如被表示为频带中的直接对总能量比(direct-to-totalenergyratio)或环境对总能量比(ambient-to-totalenergyratio))是典型且有效的选择。已知这些参数很好描述了所捕获的声音在麦克风阵列的位置处的感知空间特性。因此,这些参数可被用在空间声音的合成中,用于双耳式耳机、用于扬声器、或其它格式(诸如ambisonic(全景环绕声音))。
例如,可以存在两个通道(立体声)的音频信号和空间元数据。此外,空间元数据可以定义如下参数:方向索引,描述声音按时频参数间隔的到达方向;直接对总能量比,描述针对方向索引(即,时频子帧)的能量比;扩展相干性,描述针对方向索引(即,时频子帧)的能量扩展;扩散对总能量比(diffuse-to-totalenergyratio),描述非方向性声音在周围方向上的能量比;环绕相干性,描述非方向性声音在周围方向上的相干性;剩余对总能量比(remainder-to-totalenergyratio),描述剩余部分(诸如麦克风噪声)声能的能量比,以满足能量比之和为1的要求;以及距离,以对数刻度描述以米为单位的源自方向索引(即,时频子帧)的声音的距离。
ivas流可被解码并渲染为各种输出格式,包括双声道输出、多通道输出、和ambisonic(foa/hoa)输出。另外,可以存在用于外部渲染的接口,其中输出格式可以对应于例如输入格式。
由于空间(例如masa)元数据采用与输出格式无关的方式描绘期望的空间音频感知,因此,任何具有空间元数据的流可被灵活地渲染成任何一种上述的输出格式。但是,由于masa流可以源自各种输入,因此,解码器接收的传输音频信号可能具有不同的特征。因此,解码器必须考虑这些方面,以便能够产生最佳的音频质量。
沉浸式媒体技术目前正由mpeg进行标准化,命名为mpeg-i。这些技术包括用于各种虚拟现实(vr)、增强现实(ar)或混合现实(mr)用例的方法。mpeg-i被分为三个阶段:阶段1a、阶段1b和阶段2。这些阶段的特征在于如何考虑3d空间中所谓的自由度。阶段1a和阶段1b考虑3dof和3dof+用例,然后阶段2将至少允许显著无限制的6dof。
增强现实(ar)/虚拟现实(vr)/混合现实(mr)应用的示例是音频(或音频-视觉)环境沉浸,在其中实现6自由度(6dof)内容渲染。
当前预计mpeg-i音频将基于mpeg-h3d音频。但是,在mpeg-h3d音频之上还需要另外的6dof技术,至少包括:支持6dof的附加元数据和还支持线性转换的交互式6dof渲染器。注意,mpeg-h3d音频包括ambisonic信号,并且mpeg-i音频被预期支持该信号。mpeg-i还将包括对低延迟通信音频的支持,例如支持诸如社交vr之类的用例。该音频可以是空间的。尚未定义该音频将被如何渲染给用户(例如,格式支持,与本机mpeg-i内容的混合)。至少预期将有一些元数据支持以控制至少两个内容的混合。
技术实现要素:
根据第一方面,提供一种装置,其包括被配置为执行以下的部件:获得至少一个音频流,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;以及将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
已定义类型的传输音频信号和/或另一已定义类型的传输音频信号可以与传输音频信号的起源或传输音频信号的模拟起源相关联。
该部件还可以被配置为获得表示另一已定义类型的传输音频信号的指示符,并且其中被配置为将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,一个或多个其它传输音频信号可以是另一已定义类型的传输音频信号的部件被配置为基于指示符来将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号。
指示符可以从渲染器获得,该渲染器被配置为接收一个或多个其它传输音频信号并渲染该一个或多个其它传输音频信号。
该部件还可以被配置为提供至少一个其它传输音频信号以用于渲染。
该部件还可以被配置为:生成与另一已定义类型的传输音频信号相关联的指示符;以及将与至少一个其它传输音频信号相关联的指示符作为附加元数据与至少一个其它传输音频信号一起提供以用于渲染。
该部件还可以被配置为确定已定义类型的传输音频信号。
至少一个音频流还可以包括识别与一个或多个传输音频信号相关联的已定义类型的传输音频信号的指示符,其中,被配置为确定已定义类型的传输音频信号的部件可以被配置为基于指示符来确定与一个或多个传输音频信号相关联的已定义类型的传输音频信号。
被配置为确定已定义类型的传输音频信号的部件可以被配置为基于对一个或多个传输音频信号的分析来确定已定义类型的传输音频信号。
被配置为将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,一个或多个其它传输音频信号是另一已定义类型的传输音频信号的部件可以被配置为:基于至少一个传输音频信号、传输音频信号的已定义类型、以及传输音频信号的另一已定义类型,生成至少一个原型(prototype)信号;确定至少一个期望的一个或多个其它传输音频信号特性;基于所确定的至少一个期望的一个或多个其它传输音频信号特性,将至少一个原型信号和至少一个原型信号的解相关版本相混合,以生成至少一个其它传输音频信号。
至少一个音频信号的已定义类型可以是以下至少之一:捕获麦克风布置;捕获麦克风分离距离;捕获麦克风参数;传输通道标识符;心形音频信号类型;间隔音频信号类型;下混合音频信号类型;重合(coincident)音频信号类型;和传输通道布置。
该部件还可以被配置为渲染一个或多个其它传输音频信号。
被配置为渲染至少一个其它音频信号的部件可以被配置为执行以下之一:将一个或多个其它传输音频信号转换成ambisonic音频信号表示;将一个或多个其它传输音频信号转换成双声道音频信号表示;以及将一个或多个其它传输音频信号转换成多通道音频信号表示。
至少一个音频流可以包括与一个或多个传输音频信号相关联的空间元数据。
该部件还可以被配置为提供至少一个其它传输音频信号和与一个或多个传输音频信号相关联的空间元数据以用于渲染。
根据第二方面,提供了一种方法,包括:获得至少一个音频流,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;以及将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
已定义类型的传输音频信号和/或另一已定义类型的传输音频信号可以与传输音频信号的起源或传输音频信号的模拟起源相关联。
该方法还可以包括:获得表示另一已定义类型的传输音频信号的指示符,并且其中将一个或多个传输音频信号转换成至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号,可以包括:基于指示符来将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号。
指示符可以从渲染器获得,该渲染器被配置为接收一个或多个其它传输音频信号并渲染该一个或多个其它传输音频信号。
该方法还可以包括:提供至少一个其它传输音频信号以用于渲染。
该方法还可以包括:生成与另一已定义类型的传输音频信号相关联的指示符;以及将与至少一个其它传输音频信号相关联的指示符作为附加元数据与至少一个其它传输音频信号一起提供以用于渲染。
该方法还可以包括:确定已定义类型的传输音频信号。
至少一个音频流还可以包括识别与一个或多个传输音频信号相关联的已定义类型的传输音频信号的指示符,其中确定已定义类型的传输音频信号包括基于该指示符来确定与一个或多个传输音频信号相关联的已定义类型的传输音频信号。
确定已定义类型的传输音频信号可以包括:基于对一个或多个传输音频信号的分析来确定已定义类型的传输音频信号。
将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号,可以包括:基于至少一个传输音频信号、传输音频信号的已定义类型、和的传输音频信号的另一已定义类型来生成至少一个原型信号;确定至少一个期望的一个或多个其它传输音频信号特性;基于所确定的至少一个期望的一个或多个其它传输音频信号特性,将至少一个原型信号和至少一个原型信号的解相关版本相混合,以生成至少一个其它传输音频信号。
至少一个音频信号的已定义类型可以是以下至少之一:捕获麦克风布置;捕获麦克风分离距离;捕获麦克风参数;传输通道标识符;心形音频信号类型;间隔音频信号类型;下混合音频信号类型;重合音频信号类型;和传输通道布置。
该方法还可以包括:渲染一个或多个其它传输音频信号。
渲染至少一个其它音频信号可以包括以下之一:将一个或多个其它传输音频信号转换成ambisonic音频信号表示;将一个或多个其它传输音频信号转换成双声道音频信号表示;以及将一个或多个其它传输音频信号转换成多通道音频信号表示。
至少一个音频流可以包括与一个或多个传输音频信号相关联的空间元数据。
该方法还可以包括:提供至少一个其它传输音频信号和与一个或多个传输音频信号相关联的空间元数据以用于渲染。
根据第三方面,提供了一种装置,该装置包括至少一个处理器和包括计算机程序代码的至少一个存储器,该至少一个存储器和计算机程序代码被配置为与至少一个处理器一起使得该装置至少:获得至少一个音频流,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;以及将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
已定义类型的传输音频信号和/或另一已定义类型的传输音频信号可以与传输音频信号的起源或传输音频信号的模拟起源相关联。
该装置还可被使得获得表示另一已定义类型的传输音频信号的指示符,并且其中可被使得将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,一个或多个其它传输音频信号可以是另一已定义类型的传输音频信号的装置可以被使得基于指示符来将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号。
该指示符可以从渲染器获得,该渲染器被配置为接收一个或多个其它传输音频信号并渲染该一个或多个其它传输音频信号。
该装置还可被使得提供至少一个其它传输音频信号以用于渲染。
该装置还可被使得:生成与另一已定义类型的传输音频信号相关联的指示符;以及将与至少一个其它传输音频信号相关联的指示符作为附加元数据与至少一个其它传输音频信号一起提供以用于渲染。
该装置还可被使得确定已定义类型的传输音频信号。
至少一个音频流还可以包括识别与一个或多个传输音频信号相关联的已定义类型的传输音频信号的指示符,其中可被使得确定已定义类型的传输音频信号的装置可被使得基于该指示符来确定与一个或多个传输音频信号相关联的已定义类型的传输音频信号。
可被使得确定已定义类型的传输音频信号的装置可被使得基于对一个或多个传输音频信号的分析来确定已定义类型的传输音频信号。
可被使得将一个或多个传输音频信号转换成至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号的装置可被使得:基于至少一个传输音频信号、传输音频信号的已定义类型、以及传输音频信号的另一已定义类型,生成至少一个原型信号;确定至少一个期望的一个或多个其它传输音频信号特性;基于所确定的至少一个期望的一个或多个其它传输音频信号特性,将至少一个原型信号和至少一个原型信号的解相关版本相混合,以生成至少一个其它传输音频信号。
至少一个音频信号的已定义类型可以是以下至少之一:捕获麦克风布置;捕获麦克风分离距离;捕获麦克风参数;传输通道标识符;心形音频信号类型;间隔音频信号类型;下混合音频信号类型;重合音频信号类型;和传输通道布置。
该装置还可被使得渲染一个或多个其它传输音频信号。
被使得渲染至少一个其它音频信号的装置可被使得执行以下之一:将一个或多个其它传输音频信号转换成ambisonic音频信号表示;将一个或多个其它传输音频信号转换成双声道音频信号表示;以及将一个或多个其他传输音频信号转换成多通道音频信号表示。
至少一个音频流可以包括与一个或多个传输音频信号相关联的空间元数据。
该装置还可被使得提供至少一个其它传输音频信号和与一个或多个传输音频信号相关联的空间元数据以用于渲染。
根据第四方面,提供了一种装置,包括:用于获得至少一个音频流的部件,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;用于将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号的部件,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
根据第五方面,提供了一种包括指令的计算机程序(或包括程序指令的计算机可读介质),该指令(或程序指令)使得装置至少执行以下操作:获得至少一个音频流,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;以及将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
根据第六方面,提供了一种非暂时性计算机可读介质,包括用于使得装置执行至少以下操作的程序指令:获得至少一个音频流,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;以及将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
根据第七方面,提供了一种装置,包括:获取电路,被配置为获得至少一个音频流,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;以及转换电路,被配置为将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
根据第八方面,提供了一种计算机可读介质,该计算机可读介质包括用于使得装置至少执行以下操作的程序指令:获得至少一个音频流,其中至少一个音频流包括一个或多个传输音频信号,其中一个或多个传输音频信号是已定义类型的传输音频信号;以及将一个或多个传输音频信号转换为至少一个或多个其它传输音频信号,该一个或多个其它传输音频信号是另一已定义类型的传输音频信号。
一种装置,包括用于执行如上所述的方法的动作的部件。
一种装置,被配置为执行如上所述的方法的动作。
一种计算机程序,包括用于使得计算机执行如上所述的方法的程序指令。
一种被存储在介质上的计算机程序产品可以使得装置执行本文所述的方法。
一种电子设备可以包括如本文所述的装置。
一种芯片组可以包括如本文所述的装置。
本申请的实施例旨在解决与现有技术相关联的问题。
附图说明
为了更好地理解本申请,现在将通过示例的方式参考附图,其中:
图1示意性地示出适于实现一些实施例的装置的系统;
图2示出根据一些实施例的示例装置的操作的流程图;
图3示意性地示出根据一些实施例的如图1中所示的传输音频信号类型转换器;
图4示出根据一些实施例的示例装置的操作的流程图;
图5示出根据如一些实施例中所示的第一示例实现的线性生成的心形图案;
图6和图7示意性地示出适于实现一些实施例的另一装置的系统;
图8示出适于实现如先前附图中所示的装置的示例设备。
具体实施方式
下面进一步详细描述了用于提供空间元数据辅助音频信号的有效渲染的合适装置和可能的机制。
尽管以下示例着重于masa编码和解码,但应当注意,所提出的方法适用于利用传输音频信号和空间元数据的任何系统。空间元数据可以包括例如采用任何种类组合的以下参数中的一些:方向;电平/相位差;直接对总能量比;扩散度;相干性(诸如扩展相干性和/或周围相干性);以及距离。通常,这些参数在时频域中给出。因此,当在下面使用术语ivas和/或masa时,应当理解,它们可以用任何其他合适的编解码器和/或元数据格式和/或系统来代替。
如前面所讨论的,ivas编解码器被预期能够处理具有不同种类的传输音频信号的masa流。但是,ivas也被预期支持外部渲染器。在这种情形下,不能保证所有外部渲染器都支持具有所有可能的传输音频信号类型的masa流,并因此不能与外部渲染器一起最佳地利用。
例如,外部渲染器可以利用基于ambisonic的双声道渲染,其中假定传输信号类型是心形,并且可以用求和运算和差值运算来从心形中直接生成ambisonic信号的w分量和y分量。因此,如果传输信号类型不是心形,则这种空间音频流不能直接与那种外部渲染器一起使用。
此外,可以在ivas编解码器外部使用masa流(或由传输音频信号和空间元数据组成的任何其他空间音频流)。
在以下实施例中讨论的概念是可以修改传输音频信号以使得它们与目标类型相匹配并且因此可以被更灵活地使用的装置和方法。
因此,如在此进一步详细讨论的实施例涉及空间音频流(包含传输音频信号和元数据)的处理。此外,这些实施例讨论用于改变空间音频流的传输音频信号类型以实现与需要特定传输音频信号类型的系统的兼容性的装置和方法。此外,在这些实施例中,可以通过以下操作来改变传输音频信号类型:获得空间音频流;确定空间音频流的传输音频信号类型;获得目标传输音频信号类型;修改传输音频信号以匹配目标传输音频信号类型;将空间音频流的传输音频信号类型字段改变为目标传输音频信号类型(如果存在该字段);以及允许已修改空间音频流用需要特定传输音频信号类型的系统来处理。
在以下实施例中,该装置和方法使得能够改变空间音频流传输音频信号的类型。因此,空间音频流可被转换成与允许使用具有某些种类的传输音频信号类型的空间音频流的系统兼容。该装置和方法可以例如使用空间音频流来渲染双声道(或多通道扬声器)音频。
在一些实施例中,该方法和装置可以例如在ivas的环境中(例如,在支持ivas的移动设备中)实现。该实施例可以在ivas解码器与外部渲染器(例如,双声道渲染器)之间利用。在外部渲染器仅支持某一传输音频信号类型的一些实施例中,这些实施例可以被配置为修改具有不同传输音频信号类型的空间音频流以匹配所支持的传输音频信号类型。
传输音频信号的类型可以是诸如在英国专利申请号gb1904261.3中描述的类型。这些类型可以包括诸如“间隔”、“心形”、“重合”之类的类型。
关于图1,示出了根据一些实施例的用于实现音频捕获和渲染的示例装置和系统(并将具有“间隔”类型的空间音频流转换成“心形”类型的传输音频信号)。
所示的系统199具有麦克风阵列音频信号100输入。在以下示例中,描述了麦克风阵列音频信号100输入,但是在其他实施例中可以实现任何合适的多通道输入(或合成多通道)格式。
系统199可以包括空间分析器101。空间分析器101被配置为对麦克风信号执行空间分析,从而产生传输音频信号102和元数据104。
在一些实施例中,空间分析器和空间分析可以在系统199外部实现。例如,在一些实施例中,与音频信号相关联的空间元数据可以作为单独的比特流被提供给编码器。在一些实施例中,空间元数据可以被提供为一组空间(方向)索引值。
空间分析器101可以被配置为以任何合适的方式创建传输音频信号102。例如,在一些实施例中,空间分析器被配置为选择两个麦克风信号用作传输音频信号。例如,所选择的两个麦克风音频信号可以是在移动设备的左侧的一个麦克风音频信号和在移动设备的右侧的另一个麦克风音频信号。因此,传输音频信号可以被认为是间隔的麦克风信号。另外,通常,对麦克风信号应用一些预处理(诸如均衡、降噪和自动增益控制)。
元数据可以具有各种形式,并且可以包含空间元数据和其他元数据。典型的用于空间元数据的参数化是每个频带中的一个方向参数θ(k,n)以及每个频带中的相关联的直接对总能量比r(k,n),其中k是频带索引并且n是时间帧索引。确定或估计方向和比率取决于从中获得音频信号的设备或实现。例如,可以使用在英国专利申请号1619573.7和pct专利申请号pct/fi2017/050778中描述的方法,使用空间音频捕获(spac)来获得或估计元数据。换句话说,在该特定上下文中,空间音频参数包括旨在描绘声场的特征的参数。在一些实施例中,所生成的参数可以在不同的频带上不同。因此,例如,在频带x中,生成并发送所有的参数,而在频带y中,仅生成和发送一个参数,此外在频带z中,没有生成或发送参数。这样的一个实际示例可以是对于一些频带(诸如最高频带),由于感知的原因,不需要某些参数。
在一些实施例中,所获得的元数据可以包含除了空间元数据之外的元数据。例如,在一些实施例中,所获得的元数据可以是描述传输音频信号类型的“通道音频格式”参数。在该示例中,“通道音频格式”参数可以具有值“间隔”。另外,在一些实施例中,元数据还包括定义或表示麦克风之间的距离的参数。在一些实施例中,可以用信号发送该距离参数。传输音频信号和元数据可以采用masa布置或配置或者采用任何其他合适的形式。
传输音频信号102(类型为“间隔”)和元数据104可以从空间分析器101被输出到编码器105。
在一些实施例中,系统199包括编码器105。编码器105可以被配置为从空间分析器101接收传输音频信号102(类型为“间隔”)和元数据104。在一些实施例中,编码器105可以是移动设备、用户设备、平板计算机、计算机(运行被存储在存储器和至少一个处理器上的合适软件)、或者(可替代地)利用例如fpga或asic的特定设备。编码器可以被配置为实现任何合适的编码方案。此外,编码器105还可以被配置为接收元数据并生成编码或压缩形式的信息。在一些实施例中,编码器105可以在发送或存储之前进一步将元数据交织、多路复用到单个数据流106或将元数据嵌入在编码音频信号内。可以使用任何合适的方案来实现多路复用。
编码器可以是ivas编码器或者任何其他合适的编码器。因此,编码器105被配置为对音频信号和元数据进行编码,并形成比特流106(例如,ivas比特流)。
此外,系统199还可以包括解码器107。解码器107被配置为接收、取回或以其他方式获得比特流106,从比特流中解复用编码流,并对音频信号进行解码以获得传输信号108。类似地,解码器107可以被配置为接收编码元数据110并对其解码。在一些实施例中,解码器107可以是移动设备、用户设备、平板计算机、计算机(运行被存储在存储器和至少一个处理器上的合适软件)、或者(可替代地)利用例如fpga或asic的特定设备。
系统199可以进一步包括传输信号类型转换器111。传输信号类型转换器111可以被配置为获得传输音频信号108(在该示例中,类型为“间隔”)和元数据110,并且还接收来自空间合成器115的“目标”传输音频信号类型输入118。传输信号类型转换器111可以被配置为基于从空间合成器115接收的传输音频信号类型118指示符,将输入传输信号类型转换成“目标”传输信号类型。在一些实施例中,传输信号类型转换器111被配置为基于(空间)元数据、输入传输音频信号类型和目标传输音频信号类型来对输入或原始传输音频信号进行转换,以使得新的传输音频信号与目标传输音频信号类型相匹配。在一些实施例中,在转换中不使用(空间)元数据。例如,foa传输音频信号到心形传输音频信号的转换可以用线性运算来实现,而无需任何(空间)元数据。在一些实施例中,传输信号类型转换器被配置为转换输入或原始传输音频信号而无需明确接收的目标传输音频信号类型。
在该示例中,目的是使用空间合成器115来渲染具有这些信号的空间音频(例如,双声道音频)。然而,在该示例中,空间合成器115仅接受传输音频信号是“心形”类型的空间音频流。换句话说,空间合成器预期例如指向±90度的两个重合心形,并被配置为相应地处理任何两信号输入。因此,来自解码器的空间音频流不能被直接用于实现正确的渲染,而是在解码器107与空间合成器115之间使用传输音频信号类型转换器111。
在该示例中,“目标”类型是指向±90度的重合心形(这仅是示例,它可以是任何类型)。另外,如果元数据具有描述传输音频信号类型的字段(例如,通道音频格式元数据参数),则它可以被配置为改变该指示符或参数以指示新的传输音频信号类型(例如,“心形”)。
已修改传输音频信号(例如,“心形”类型)112和(可能的)已修改元数据114被转发到空间合成器115。
在一些实施例中,系统199包括空间合成器115,它被配置为接收(已修改)传输音频信号112(在该示例中,类型为“心形”)和(可能的)已修改元数据114。由此,由于传输音频信号是所支持的类型,因此,空间合成器115可以被配置为使用它所接收的空间音频流来渲染空间音频(例如,双声道音频)。
在一些实施例中,空间合成器115被配置为创建一阶ambisonic(foa)信号。通过以下公式,从传输音频信号(其类型为“心形”)线性地获得w和y:
w(b,n)=scard,left(b,n)+scard,right(b,n)
y(b,n)=scard,left(b,n)-scard,right(b,n)
在一些实施例中,空间合成器115可以被配置为使用合适的参数处理过程(诸如在英国专利申请1616478.2和pct专利申请pct/fi2017/050664中所讨论的)来从全向信号w中生成x和z偶极子。索引b指示所应用的时频变换的频率点(frequencybin)索引,并且n指示时间索引。
然后,在一些实施例中,空间合成器115可以被配置为从foa信号(w,y,z,x)中生成或合成双声道信号。这可以通过在频域中将静态矩阵运算应用于foa信号来实现,该静态矩阵运算已被设计(针对每个频率点)为近似用于foa输入的头部相关变换函数(hrtf)数据集。在一些实施例中,foa到hrtf的变换可以采用滤波器矩阵的形式。在一些实施例中,在矩阵运算(或滤波)之前,可以根据用户头部朝向来应用foa信号旋转矩阵。
该系统的操作关于图2所示的流程图来总结。图2例如示出了麦克风阵列音频信号的接收,如步骤201所示。
然后,该流程图示出了麦克风阵列音频信号的分析(空间的),如图2中的步骤203所示。
然后,所生成的传输音频信号(在该示例中是间隔类型的传输音频信号)和元数据可被编码,如图2中的步骤205所示。
然后,传输音频信号(在该示例中是间隔类型的传输音频信号)和元数据可被解码,如图2中的步骤207所示。
然后,传输音频信号可被转换为“目标”类型,在该示例中是心形类型的传输音频信号,如图2中的步骤209所示。
然后,空间音频信号可被合成以输出合适的输出格式,如图2中的步骤211所示。
关于图3,示出了传输信号类型转换器111,其适于将“间隔”传输音频信号类型转换为“心形”传输音频信号类型。
在一些实施例中,传输信号类型转换器111包括时频变换器301。时频变换器301被配置为接收传输音频信号108并将其转换到时频域,换句话说,输出合适的t/f域传输音频信号302。合适的变换包括例如短时傅立叶变换(stft)和复合调制正交镜像滤波器组(qmf)。所得到的信号被标示为si(b,n),其中i是通道索引,b是频率点索引,n是时间索引。在传输音频信号(从提取器和/或解码器输出的)已经在时频域中的情况下,这可以被省略,或者可替代地,可以包含从一个时频域表示到另一个时频域的表示的变换。t/f域传输音频信号302可以被转发到原型信号创建器303。
在一些实施例中,传输信号类型转换器111包括原型信号创建器303。原型信号创建器303被配置为接收t/f域传输音频信号302。原型信号创建器303还被配置为接收目标传输音频信号类型118的指示符,并且在一些实施例中还接收原始传输音频信号类型304的指示符。原型信号创建器303然后被配置为将时频域原型信号308输出到解相关器305和混合器307。原型信号的创建取决于原始传输音频信号类型和目标传输音频信号类型。在该示例中,原始传输信号类型是“间隔”,目标传输信号类型是“心形”。
在频带k中确定空间元数据,每个频带涉及一个或多个频率点b。在一些实施例中,分辨率使得高频带k比低频带包含更多的频率点b,从而接近人类听力的频率选择性特性。然而,在一些实施例中,分辨率可以是任何合适的频带布置对着任何适当数量的频率点。在一些实施例中,原型信号创建器303在三个频率范围上工作。
在该示例中,三个频率范围如下:
-低频范围(k≤k1)使得包括其中音频波长被认为相对于传输音频信号的麦克风间距是长的频点b
-高频范围(k2<k)使得包括其中音频波长被认为相对于传输音频信号的麦克风间距是短的频点b
-中频范围(k1<k≤k2)
音频波长是长的意味着传输音频信号中的信号高度相似,并且因此差值运算(例如s1(b,n)-s2(b,n))提供具有非常小的幅度的信号。这可能会产生snr较差的信号,因为麦克风噪声在差分信号处没有被衰减。
音频波长是短的意味着不能很好地实现波束成形过程,并且发生空间混叠。例如,传输信号的线性组合可针对中频范围生成具有心形形状的波束图案。然而,在高频范围中,不可能通过线性运算来生成这种图案。如在麦克风阵列处理领域中众所周知的,所得到的图案会具有若干旁瓣,并且所生成的该图案在该示例中没有用。例如,图5示出了如果在高频处应用线性运算会发生什么。例如,图5示出了对于高于大约1khz的频率,输出图案并不那么好。
在一些实施例中,频率范围k1和k2可以基于传输信号的间隔麦克风距离d(以米为单位)来确定。例如,以下公式可用来确定以hz为单位的频率限制:
其中c是声速。k1则是最高频带索引,其中对应于最低频点索引的频率低于f1。k2则是最低频带索引,其中对应于最高频点索引的频率高于f2。
在一些情况下,距离d可以从传输音频信号类型参数或其它合适的参数或指示符获得。在其他情况下,距离可以被估计。例如,可以监视麦克风间延迟值以确定麦克风之间的最高高度相干延迟,并且麦克风距离可以基于该最高延迟值来估计。在一些实施例中,作为频率的函数的麦克风信号的归一化互相关可以在合适的时间间隔上测量,并且所得到的互相关图案可与针对不同距离d的理想扩散场互相关图案进行比较,然后选择最佳拟合d。
在一些实施例中,原型信号创建器303被配置为在低频范围和高频范围上实现以下处理操作。
由于低频范围具有高度相干的麦克风音频信号,因此,原型信号创建器303被配置为通过将t/f传输音频信号相加或组合在一起来生成原型信号。
原型信号创建器303被配置为针对高频范围不将t/f传输音频信号组合或相加在一起,因为这会产生不期望的梳状滤波效果。因此,在一些实施例中,原型信号创建器303被配置为通过选择t/f传输音频信号的一个通道(例如,第一通道)来生成原型信号。
针对高频范围和低频范围生成的原型信号是单通道信号。
然后,原型信号创建器303(用于低频范围和高频范围)可以被配置为使用合适的时间平滑来均衡所生成的原型信号。实施该均衡以使得输出音频信号具有信号si(b,n)的平均能量。
原型信号创建器303被配置为将t/f传输音频信号302的中频范围作为t/f原型信号308(在中频范围中)输出而不进行任何处理。
在低频范围和高频范围处被标示为sp,mono(b,n)的均衡原型信号和未处理的中频范围传输音频信号作为原型音频信号308被输出到解相关器305和混合器307。
在一些实施例中,传输信号类型转换器111包括解相关器305。解相关器305被配置为基于原型信号在低频范围和高频范围生成一个非相干解相关信号。在中频范围,不需要解相关信号。输出被提供给混合器307。解相关信号被标示为sd,mono(b,n)。解相关信号理想地具有与sp,mono(b,n)相同的能量,但是这些信号理想地是相互不相干的。
在一些实施例中,传输信号类型转换器111包括目标信号特性确定器309。目标信号特性确定器309被配置为接收空间元数据110和目标传输音频信号类型118。目标信号特性确定器309被配置为使用元数据方位角azi(k,n)、仰角ele(k,n)和直接对总能量比r(k,n)来制定目标协方差矩阵。例如,目标信号特性确定器309被配置为制定左和右心形增益:
gl(k,n)=0.5+0.5sin(azi(k,n))cos(ele(k,n))
gr(k,n)=0.5-0.5sin(azi(k,n))cos(ele(k,n))
然后,目标协方差矩阵是
其中,最右边的矩阵定义与两个心形信号在扩散场中的能量和相关性有关。作为目标信号特性320的目标协方差矩阵被提供给混合器307。
在一些实施例中,传输信号类型转换器111包括混合器307。混合器307被配置为接收来自解相关器305和原型信号创建器303的输出。此外,混合器307被配置为接收目标协方差矩阵作为目标信号特性320。
混合器可以被配置用于低频范围和高频范围以将混合操作的输入信号定义为原型信号(第一通道)和解相关信号(第二通道)的组合:
混合过程可以使用任何合适的过程,例如,基于“用于空间音频的时频处理的优化协方差域框架”(jvilkamo,
所制定的混合矩阵m(时间索引和频率索引被暂时省略)可以基于以下的矩阵。
在上面,目标协方差矩阵采用归一化形式来被确定(即,没有绝对能量),因此,信号x的协方差矩阵也可以采用归一化形式来被确定:x所包含的信号是不相干的但具有相同的能量,并且因此,它的协方差矩阵可以被固定为
混合矩阵m(k,n)可以针对每个频带k来制定,并被应用于频带k内的每个频点b以生成输出信号
y(b,n)=m(k,n)x(b,n)。
对于中频范围,混合器307具有“心形”传输音频信号类型将被渲染的信息,并因此针对每个频率点(在中频范围的频带内)制定混合矩阵mmid并将其应用到输入信号(其在中频范围是t/f传输音频信号)以生成新的传输音频信号。
在一些实施例中,混合矩阵mmid可以被制定为d的函数,如下所示。在该示例中,每个频点b具有中心频率fb。首先,混合器被配置为确定归一化增益:
然后,混合矩阵通过以下矩阵乘法来确定
其中,右边的矩阵执行麦克风频率点信号到w和y信号(的近似)的转换,左边的矩阵将结果转换为心形信号。上述所制定的归一化使得针对心形图案在90度和-90度的方向上实现单位增益,而在相反方向上没有。在图5中图示了根据上述函数生成的图案。该图还图示了该线性方法仅对有限的频率范围起作用,而对于高频范围,则需要上述的其他方法。
然后,针对中频范围制定的信号y(b,n)可与先前针对低频范围和高频范围制定的y(b,n)相组合,然后被提供给逆t/f变换器311。
在一些实施例中,传输信号类型转换器111包括逆t/f变换器311。逆t/f变换器311将y(b,n)310转换到时域,并将其作为已修改传输音频信号312输出。
关于图4,示出了传输信号类型转换器111的概要操作。
如图4的步骤401中所示,接收传输音频信号和元数据。
然后,如图4的步骤403所示,对传输音频信号进行时频变换。
如图4的步骤402所示,接收原始和目标传输音频信号类型。
然后,如图4的步骤405所示,创建原型传输音频信号。
另外,如图4的步骤409所示,对原型传输音频信号进行解相关。
如图4的步骤407所示,确定目标信号特性。
然后,如图4的步骤411所示,基于所确定的目标信号特性,将原型(和解相关的原型)信号进行混合。
然后,如图4的步骤413所示,对混合音频信号进行逆时频变换。
然后,如图4的步骤415所示,输出混合时域音频信号。
另外,如图4的步骤417所示,输出元数据。
如图4的步骤419所示,目标音频类型作为新的“传输音频信号类型”被输出(因为传输音频信号已被修改以匹配该类型)。在一些实施例中,输出传输音频信号类型可以是可选的(例如,输出流不具有识别信号类型的该字段或指示符)。
关于图6,示出了根据一些实施例的用于实现音频捕获和渲染(并将具有“单通道”类型的空间音频流转换成“心形”类型的传输音频信号)的示例装置和系统。
所示的系统699具有麦克风阵列音频信号100输入。在以下的示例中,描述了麦克风阵列音频信号100输入,但是在其他实施例中可以实现任何合适的多通道输入(或合成多通道)格式。
系统699可以包括空间分析器101。空间分析器101被配置为对麦克风信号执行空间分析,从而产生传输音频信号602和元数据104。
在一些实施例中,空间分析器和空间分析可以在系统699外部实现。例如,在一些实施例中,与音频信号相关联的空间元数据可以作为单独的比特流被提供给编码器。在一些实施例中,空间元数据可以被提供为一组空间(方向)索引值。
空间分析器101可以被配置为以任何合适的方式创建传输音频信号602。例如,在一些实施例中,空间分析器被配置为创建单个传输音频信号。例如,当设备仅具有一个高质量麦克风而其他麦克风旨在或者仅适用于空间分析时,这可以很有用。在这种情况下,来自高质量麦克风的信号被用作传输音频信号(通常在一些预处理(诸如均衡)之后)。
元数据可以具有各种形式,并且可以以与关于图1所示示例所讨论的相同方式包含空间元数据和其他元数据。
在一些实施例中,所获得的元数据可以包含除了空间元数据之外的元数据。例如,在一些实施例中,所获得的元数据可以是描述传输音频信号类型的“通道音频格式”参数。在该示例中,“通道音频格式”参数可以具有值“单通道”。
传输音频信号602(类型为“单通道”)和元数据104可以从空间分析器101被输出到编码器105。
在一些实施例中,系统699包括编码器105。编码器105可以被配置为从空间分析器101接收传输音频信号602(类型为“单通道”)和元数据104。在一些实施例中,编码器105可以是移动设备、用户设备、平板计算机、计算机(运行被存储在存储器上和至少一个处理器上的合适软件)、或者(可替代地)利用例如fpga或asic的特定设备。编码器可以被配置为实现任何合适的编码方案。此外,编码器105还可以被配置为接收元数据并生成编码或压缩形式的信息。在一些实施例中,编码器105可以在发送或存储之前进一步将元数据交织、多路复用到单个数据流106或嵌入在编码音频信号内。多路复用可以使用任何合适的方案来实现。
编码器可以是ivas编码器或者任何其他合适的编码器。因此,编码器105被配置为对音频信号和元数据进行编码,并形成比特流106(例如,ivas比特流)。
此外,系统699还可以包括解码器107。解码器107被配置为接收、取回或以其他方式获得比特流106,从比特流中解复用编码流,并对音频信号进行解码以获得传输信号608(类型为“单通道”)。类似地,解码器107可以被配置为接收编码元数据110并对其解码。在一些实施例中,解码器107可以是移动设备、用户设备、平板计算机、计算机(运行被存储在存储器和至少一个处理器上的合适软件)、或者(可替代地)利用例如fpga或asic的特定设备。
系统699可以进一步包括传输信号类型转换器111。传输信号类型转换器111可以被配置为获得传输音频信号608(在该示例中,类型为“单通道”)和元数据110,并且还接收来自空间合成器115的传输音频信号类型输入118。传输信号类型转换器111可以被配置为基于从空间合成器115接收到的传输音频信号类型118指示符,将输入传输信号类型转换为“目标”传输信号类型。
在该示例中,目的是使用空间合成器115来渲染具有这些信号的空间音频(例如,双声道音频)。然而,在该示例中,空间合成器115仅接受传输音频信号是“心形”类型的空间音频流。换句话说,空间合成器预期例如指向±90度的两个重合心形,并被配置为相应地处理任何两信号输入。因此,来自解码器的空间音频流不能被直接用于实现正确的渲染,而是在解码器107与空间合成器115之间使用传输音频信号类型转换器111。
在该示例中,“目标”类型是指向±90度的重合心形(这仅是示例,它可以是任何类型)。另外,如果元数据具有描述传输音频信号类型的字段(例如,通道音频格式元数据参数),则它可以被配置为改变该指示符或参数以指示新的传输音频信号类型(例如,“心形”)。
已修改传输音频信号(例如,“心形”类型)112和(可能的已修改)元数据114被转发到空间合成器115。
传输信号类型转换器111可以以与在图3的上下文中针对低频和高频范围所描述的相同方式针对所有频率实现转换。在这样的实施例中,传输信号类型转换器111被配置为生成单通道原型信号,然后使用原型信号来处理转换后的输出。在系统699的上下文中,传输音频信号已经是单通道信号,并且可被用作原型信号,可以如在图3所示示例的上下文中针对低频和高频范围所描述的那样针对所有频率执行转换处理。
然后,已修改传输音频信号(现在,类型为“心形”)和(可能的已修改)元数据可被转发到空间合成器,该空间合成器使用它接收到的空间音频流来渲染空间音频(例如,双声道音频)。
关于图7,示出了根据一些实施例的用于实现音频捕获和渲染(并将具有“下混合”类型的空间音频流转换成“心形”类型的传输音频信号)的示例装置和系统。
所示的系统799具有多通道音频信号700输入。
系统799可以包括空间分析器101。空间分析器101被配置为对多通道音频信号执行分析,从而产生传输音频信号702和元数据104。
在一些实施例中,空间分析器和空间分析可以在系统799外部实现。例如,在一些实施例中,与音频信号相关联的空间元数据可以作为单独的比特流被提供给编码器。在一些实施例中,空间元数据可以被提供为一组空间(方向)索引值。
空间分析器101可以被配置为通过下混合来创建传输音频信号702。创建传输音频信号702的简单方式是使用用于5.1多通道信号的静态下混合矩阵(例如,
元数据可以具有各种形式,并且可以以与关于图1所示示例所讨论的相同方式包含空间元数据和其他元数据。
在一些实施例中,所获得的元数据可以包含除了空间元数据之外的元数据。例如,在一些实施例中,所获得的元数据可以是描述传输音频信号类型的“通道音频格式”参数。在该示例中,“通道音频格式”参数可以具有值“下混合”。
传输音频信号702(类型为“下混合”)和元数据104可以从空间分析器101被输出到编码器105。
在一些实施例中,系统799包括编码器105。编码器105可以被配置为从空间分析器101接收传输音频信号702(类型为“下混合”)和元数据104。在一些实施例中,编码器105可以是移动设备、用户设备、平板计算机、计算机(运行被存储在存储器和至少一个处理器上的合适软件)、或者(可替代地)利用例如fpga或asic的特定设备。编码器可以被配置为实现任何合适的编码方案。此外,编码器105还可以被配置为接收元数据并生成编码或压缩形式的信息。在一些实施例中,编码器105可以在发送或存储之前进一步将元数据交织、多路复用到单个数据流106或嵌入在编码音频信号内。多路复用可以使用任何合适的方案来实现。
编码器可以是ivas编码器或者是任何其他合适的编码器。因此,编码器105被配置为对音频信号和元数据进行编码,并形成比特流106(例如,ivas比特流)。
此外,系统799还可以包括解码器107。解码器107被配置为接收、取回或以其他方式获得比特流106,从比特流中解复用编码流,并对音频信号进行解码以获得传输信号708(类型为“下混合”)。类似地,解码器107可以被配置为接收编码元数据110并对其解码。在一些实施例中,解码器107可以是移动设备、用户设备、平板计算机、计算机(运行被存储在存储器和至少一个处理器上的合适软件)、或者(可替代地)利用例如fpga或asic的特定设备。
系统799可以进一步包括传输信号类型转换器111。传输信号类型转换器111可以被配置为获得传输音频信号708(在该示例中,类型为“下混合”)和元数据110,并且还接收来自空间合成器115的传输音频信号类型输入118。传输信号类型转换器111可以被配置为基于从空间合成器115接收的传输音频信号类型118指示符,将输入传输信号类型转换为目标传输信号类型。
在该示例中,目的是使用空间合成器115来渲染具有这些信号的空间音频(例如,双声道音频)。然而,在该示例中,空间合成器115仅接受传输音频信号是“心形”类型的空间音频流。
已修改传输音频信号(例如,“心形”类型)112和(可能的已修改)元数据114被转发到空间合成器115。
传输信号类型转换器111可以通过以下方式来实现转换:首先基于下混合音频信号生成w和y信号,然后将它们混合以生成心形输出。
对于所有频率点,执行线性w和y信号生成。当s1(b,n)和s2(b,n)是左和右下混合t/f信号时,通过以下方式来生成临时(非能量归一化)w和y信号
sw(b,n)=s1(b,n)+s2(b,n),
sy(b,n)=s1(b,n)-s2(b,n)。
然后,这些信号在频带中的能量估计被制定为
ew(k,n)=∑b∈k|sw(b,n)|2,
ey(k,n)=∑b∈k|sy(b,n)|2。
然后,总体能量估计也被制定为
eo(k,n)=∑b∈k|s1(b,n)|2+|s2(b,n)|2。
此后,转换器可以制定针对w和y信号的目标能量。
tw(k,n)=eo(k,n)
然后,可以例如通过使用iir平均来在适当的时间间隔上对ty、tw、ey和ew进行平均。然后,用于频带k的处理矩阵是
并且用于每个频带k内的频点b的心形信号被处理为
然后,已修改传输音频信号(现在类型为“心形”)和(可能的)已修改元数据被转发到空间合成器,该空间合成器使用它接收到的空间音频流来渲染空间音频(例如,双声道音频)。
这些示例仅是示例,并且转换器可以被配置为将传输音频信号类型从与上述不同的类型改变为另一不同的类型。
在实现这些实施例时,具有以下优点:
使用本发明,通过首先变换传输音频信号类型,仅接受特定传输音频信号类型的音效器(或任何其他系统)可与任何传输音频信号类型的音频流一起使用。另外,由于这些实施例允许传输音频信号类型的灵活变换,因此,可以创建和/或存储具有任何传输音频信号类型的原始空间音频流,而无需担心它以后是否可与某些系统一起使用。
在一些实施例中,输入传输音频信号类型例如可以按照英国专利申请19042361.3中讨论的方式来检测(而不是用信号通知)。例如,在一些实施例中,传输音频信号类型转换器111可以被配置为接收或以其他方式确定传输音频信号类型。
在一些实施例中,传输音频信号可以是一阶ambisonic(foa)信号(具有或不具有空间元数据)。这些foa信号可以被转换为“心形”类型的另一传输音频信号。该转换可以例如根据以下处理来执行:
s1(b,n)=0.5sw(b,n)+0.5sy(b,n),
s2(b,n)=0.5sw(b,n)-0.5sy(b,n)
关于图8,示例电子设备可以被用作如上所述的系统的任何装置部分。该设备可以是任何合适的电子设备或装置。例如,在一些实施例中,设备1700是移动设备、用户设备、平板计算机、计算机、音频回放装置等。
在一些实施例中,设备1700包括至少一个处理器或中央处理单元1707。处理器1707可以被配置为执行各种程序代码,诸如本文所述的方法。
在一些实施例中,设备1700包括存储器1711。在一些实施例中,至少一个处理器1707被耦合到存储器1711。存储器1711可以是任何合适的存储装置。在一些实施例中,存储器1711包括用于存储可在处理器1707上实现的程序代码的程序代码部分。此外,在一些实施例中,存储器1711还可以包括用于存储数据(例如根据本文所述的实施例已被处理或将要被处理的数据)的存储数据部分。只要需要,被存储在程序代码部分内的所实现的程序代码和被存储在存储数据部分内的数据可以经由存储器-处理器耦合而被处理器1707取得。
在一些实施例中,设备1700包括用户接口1705。在一些实施例中,用户接口1705可以被耦合至处理器1707。在一些实施例中,处理器1707可以控制用户接口1705的操作并从用户接口1705接收输入。在一些实施例中,用户接口1705可以使得用户能够例如经由小键盘向设备1700输入命令。在一些实施例中,用户接口1705可以使得用户能够从设备1700获得信息。例如,用户接口1705可以包括被配置为向用户显示来自设备1700的信息的显示器。在一些实施例中,用户接口1705可以包括触摸屏或触摸接口,其既能够使信息被输入到设备1700中,又能够向设备1700的用户显示信息。在一些实施例中,用户接口1705可以是用于通信的用户接口。
在一些实施例中,设备1700包括输入/输出端口1709。在一些实施例中,输入/输出端口1709包括收发机。在这种实施例中,收发机可以被耦合到处理器1707,并且被配置为例如经由无线通信网络实现与其他装置或电子设备的通信。在一些实施例中,收发机或任何合适的收发机或发射机和/或接收机部件可以被配置为经由有线或有线耦合来与其他电子设备或装置通信。
收发机可以通过任何合适的已知通信协议来与其他装置通信。例如,在一些实施例中,收发机可以使用适当的通用移动电信系统(umts)协议、诸如ieee802.x之类的无线局域网(wlan)协议、诸如蓝牙之类的合适的短距射频通信协议、或红外数据通信路径(irda)。
收发机输入/输出端口1709可以被配置为接收信号。
在一些实施例中,设备1700可以被用作合成设备的至少一部分。输入/输出端口1709可以被耦合到任何合适的音频输出,例如被耦合到多通道扬声器系统和/或头戴式耳机(其可以是头戴式或非头戴式耳机)等等。
通常,本发明的各种实施例可以采用硬件或专用电路、软件、逻辑或其任何组合来实现。例如,一些方面可以采用硬件来实现,而其他方面可以采用可由控制器、微处理器或其他计算设备执行的固件或软件来实现,但是本发明不限于此。尽管本发明的各个方面可以被图示和描述为框图、流程图或使用一些其他图形表示,但是众所周知,本文所述的这些框、装置、系统、技术或方法可以作为非限制示例采用硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其他计算设备或其某种组合来实现。
本发明的实施例可以通过可由移动设备的数据处理器(诸如在处理器实体中)执行的计算机软件来实现,或者由硬件、或者由软件和硬件的组合来执行。此外在这一点上,应当注意,如附图中的逻辑流程的任何块可以表示程序步骤、或者互连的逻辑电路、块和功能、或者程序步骤和逻辑电路、块和功能的组合。该软件可以被存储在诸如存储器芯片或在处理器内实现的存储器块之类的物理介质上,诸如硬盘或软盘之类的磁性介质上、以及诸如dvd及其数据变体cd之类的光学介质上。
存储器可以是适合于本地技术环境的任何类型,并且可以使用任何适当的数据存储技术来实现,诸如基于半导体的存储器设备、磁存储器设备和系统、光学存储器设备和系统、固定存储器和可移除存储器。数据处理器可以是适合于本地技术环境的任何类型,并且作为非限制性示例,可以包括通用计算机、专用计算机、微处理器、数字信号处理器(dsp)、专用集成电路(asic)、基于多核处理器架构的门级电路和处理器中的一个或多个。
可以在诸如集成电路模块之类的各种组件中实践本发明的实施例。集成电路的设计总体上是高度自动化的过程。复杂而功能强大的软件工具可用于将逻辑级设计转换为准备在半导体衬底上蚀刻和形成的半导体电路设计。
程序,诸如由加利福尼亚州山景城的synopsys公司和加利福尼亚州圣何塞的cadencedesign所提供的程序,可以使用完善的设计规则以及预先存储的设计模块库来自动对导体进行布线并将组件定位在半导体芯片上。一旦完成了半导体电路的设计,就可以将标准化电子格式(例如,opus、gdsii等)的所得设计传送到半导体制造设施或“fab”进行制造。
前面的描述已经通过示例性和非限制性示例提供了本发明的示例性实施例的完整和有益的描述。然而,当结合附图和所附权利要求书阅读时,鉴于以上描述,各种修改和改编对于相关领域的技术人员而言将变得显而易见。但是,本发明的教导的所有这些和类似的修改仍将落入所附权利要求书所限定的本发明的范围内。
起点商标作为专业知识产权交易平台,可以帮助大家解决很多问题,如果大家想要了解更多知产交易信息请点击 【在线咨询】或添加微信 【19522093243】与客服一对一沟通,为大家解决相关问题。
此文章来源于网络,如有侵权,请联系删除