声学回声消除应用技术,随着秒新月异的科技发展,各项技术成果不断地应用在我们日益拓展的各领域需求当中,刷新着我们的生活和工作。地球村的崛起,不断以互联网、物联网等方式揭示着万物相连的关系。无论是飞机、高铁还是电话、网络,都成为托起地球新村时空纵横的重要载体。怎样拉近人与人之间的关系,如何建立起更行之有效的联络方式,提高远程协同工作、信息传达效率成为了一个重要命题。远程会议的出现在很大程度上为这种多极化办公互动提供了质量的平台保障,在借助互联网便捷的远程通信架构下,通讯数据安全,稳定可靠,很长一段时间广受用户青睐。然而美中不足的是,这样的(声音)系统仍逃不出的还是自然声学上的问题。有和业内朋友聊天中谈到,今后的扩声系统也许只保留两级传统装置了,那就是声电转换和电声转换的拾音和还原。而正是这两级客观存在的物理声学现象,造就了我们所讨论的内容。在远程会议系统的终端(本地),为了实现多人互动、多人拾音等目的,系统声音免不了被放大还原,而在诸如此类的放大系统中,为本地音箱能够听到远端声音,并能把本地拾音信号传送到远端而互通。众所周知,话筒在拾取到放大后的音箱信号后。
TWS耳机异音,底噪,回声测试难点。北京录播声学回声分析
32.隔声实验室由两个相连的混响室组成,在两个混响室之间应有一个安装试件的洞口。33.质量定律对于隔声存在一个普遍的规律,即材料越重(面密度,或单位面积质量越大)隔声效果越好。对于单层密致匀实材料,面密度每增加一倍,隔声量在理论上增加6dB,这种规律即为质量定律。34.吻合谷声波接触隔声材料后,隔声材料除了垂直方向的受迫振动以外,还有沿着板面方向的受迫弯曲振动。在某个特定频率上,受迫弯曲振动将和板固有的自由弯曲振动发吻合,这时隔声材料就非常顺从地跟随入射声弯曲,造成声能大量地投射到另一侧去,形成隔声量的低谷,这种现象被称作吻合效应。35.平方反比定律在自由场(freefield)条件下,话筒或扬声器与音源之间的距离每增加一倍,声音的强度就会下降6分贝。36.哈斯效应如果有两个不同声源发出同样的声音,在同一时间以同样强度到达时,声音呈现的方向大致在两个声源之间;如两个同样的声源中的一个延时5~35ms,则感觉声音似乎都来自未延时的声源;如延迟时间在35~50ms时,延时的声源可被识别出来,但其方向仍在未经延时的声源方向;只有延迟时间超过50ms时,第二声源才能象清晰的回声般听到。这种现象就是哈斯效应。上海识别声学回声非线性声学回声消除的技术难点。
需要注意的是,如果index在滤波器阶数两端疯狂试探,只能说明当前给到线性部分的远近端延时较小或过大,此时滤波器效果是不稳定的,需要借助固定延时调整或大延时调整使index处于一个比较理想的位置。线性部分算法是可以看作是一个固定步长的NLMS算法,具体细节大家可以结合源码走读,本节重点讲解线型滤波在整个框架中的作用。从个人理解来看,线性部分的目的就是很大程度的消除线性回声,为远近端帧判别的时候,很大程度地保证了信号之间的相干值(0~1之间,值越大相干性越大)的可靠性。我们记消除线性回声之后的信号为估计的回声信号e(n),e(n)=s(n)+y''(n)+v(n),其中y''(n)为非线性回声信号,记y'(n)为线性回声,y(n)=y'(n)+y''(n)。相干性的计算(Matlab代码),两个实验(1)计算近端信号d(n)与远端参考信号x(n)的相关性cohdx,理论上远端回声信号的相干性应该更接近0(为了方便后续对比,WebRTC做了反向处理:1-cohdx),如图5(a),行为计算近端信号d(n),第二行为远端参考信号x(n),第三行为二者相干性曲线:1-cohdx,会发现回声部分相干值有明显起伏,比较大值有,近端部分整体接近,但是有持续波动,如果想通过一条固定的门限去区分远近端帧,会存在不同程度的误判。
什么是非线性声学回声?,什么是非线性的声学回声?这里我给出了一张图,的是声学回声的路径图,图的左边对应的是发射端,右边对应的是接收端。我们发出的信号首先要经过D/A变换,从数字域变换到模拟域,然后再经过功率放大器,放大之后驱动喇叭,这样就会发出声音。发出来的声音经过空气信道传播之后,到了接收端被麦克风采集到,然后再次经过功率放大器,再通过A/D变换,从模拟域又变回到数字域。那么这里的y[k]就是我们收到的回声信号。,我们接收到的回声y[k]到底是线性回声还是非线性回声呢?或者说我们应该怎么去判断它?我觉得要解决这个问题,就是要认识清楚这里面的每一个环节,看看它们到底是线性系统还是非线性系统,如果所有的环节都是线性的话,那么很自然y[k]就是一个线性的回声,否则只要有一个环节是非线性的,那么这个回声就是非线性回声。 声学回声是由于麦克风和扬声器的声学泄露耦合而成。
n)中的回声是扬声器播放远端参考x(n),又被麦克风采集到的形成的,也就意味着在近端数据还未采集进来之前,远端数据缓冲区中已经躺着N帧x(n)了,这个天然的延时可以约等于音频信号从准备渲染到被麦克风采集到的时间,不同设备这个延时是不等的。苹果设备延时较小,基本在120ms左右,Android设备普遍在200ms左右,低端机型上会有300ms左右甚至以上。(2)远近端非因果为什么会导致回声?从(1)中可以认为,正常情况下当前帧近端信号为了找到与之对齐的远端信号,必须在远端缓冲区沿着写指针向前查找。如果此时设备采集丢数据,远端数据会迅速消耗,导致新来的近端帧在向前查找时,已经找不到与之对齐的远端参考帧了,会导致后续各模块工作异常。如图10(a)表示正常延时情况,(b)表示非因果。WebRTCAEC中的延时调整策略关键而且复杂,涉及到固定延时调整,大延时检测,以及线性滤波器延时估计。三者的关系如下:①固定延时调整只会发生在开始AEC算法开始处理之前,而且调整一次。如会议盒子等固定的硬件设备延时基本是固定的,可以通过直接减去固定的延时的方法缩小延时估计范围,使之快速来到滤波器覆盖的延时范围之内。下面结合代码来看看固定延时的调整过程。
非线性声学回声消除方面的资料非常少。广东声学回声识别
声学回声往往会经过多个不同路径的多次反射之后到达接收端。北京录播声学回声分析
为什么声学器件的小型化容易产生非线性的失真呢?这个需要从喇叭发声的基本原理说起,我们都知道声波的本质是一种物理振动,而喇叭发声的基本原理就是通过电流来驱动喇叭的振膜发生振动之后,这个振膜会带动周围的空气分子相应发生振动,这样就产生了声音。如果我们要发出一个大的声音的话,那么就需要在单位时间内用更多的电流去驱动更多的空气分子发生振动。假设有大小不同的两个喇叭,他们用同样的功率去驱动,对于大喇叭而言,由于它跟空气接触的面积要大一些,所以他在单位时间内能够带动更多的空气分子振动,所以它发出来的声音也会大一些。而小喇叭如果想发出跟大喇叭一样大的声音,就需要加大驱动功率,这样会带来一个问题:我们的功率放大器件会进入到一种饱和失真的状态,由此就会带来非线性的失真。这就是声学器件小型化容易产生非线性失真的一个主要的原因。这里廉价化比较好理解了,就不多说了。原因之二,就是声学结构设计的不合理。典型的一个实例就是声学系统的隔振设计不合理。喇叭发声单元跟麦克接收单元之间,通常是需要做隔振处理的,如果没有隔振处理的话,那么在喇叭发声的过程中,他所产生的振动会通过物理方式传递到麦克接收端。
北京录播声学回声分析