多个渠道积累了大量的文本语料或语音语料,这为模型训练提供了基础,使得构建通用的大规模语言模型和声学模型成为可能。在语音识别中,丰富的样本数据是推动系统性能快速提升的重要前提,但是语料的标注需要长期的积累和沉淀,大规模语料资源的积累需要被提高到战略高度。语音识别在移动端和音箱的应用上为火热,语音聊天机器人、语音助手等软件层出不穷。许多人初次接触语音识别可能归功于苹果手机的语音助手Siri。Siri技术来源于美国**部高级研究规划局(DARPA)的CALO计划:初衷是一个让军方简化处理繁重复杂的事务,并具备认知能力进行学习、组织的数字助理,其民用版即为Siri虚拟个人助理。Siri公司成立于2007年,以文字聊天服务为主,之后与大名鼎鼎的语音识别厂商Nuance合作实现了语音识别功能。2010年,Siri被苹果收购。2011年苹果将该技术随同iPhone4S发布,之后对Siri的功能仍在不断提升完善。现在,Siri成为苹果iPhone上的一项语音控制功能,可以让手机变身为一台智能化机器人。通过自然语言的语音输入,可以调用各种APP,如天气预报、地图导航、资料检索等,还能够通过不断学习改善性能,提供对话式的应答服务。语音识别。我们一般理解的语音识别其实都是狭义的语音转文字的过程,简称语音转文本识别。深圳新一代语音识别设计
LSTM)的循环神经网络RNN,能够通过遗忘门和输出门忘记部分信息来解决梯度消失的问题。由LSTM也衍生出了许多变体,较为常用的是门控循环单元(GatedRecurrentUnit,GRU),在训练数据很大的情况下GRU相比LSTM参数更少,因此更容易收敛,从而能节省很多时间。LSTM及其变体使得识别效果再次得到提升,尤其是在近场的语音识别任务上达到了可以满足人们日常生活的标准。另外,时延神经网络(TimeDelayNeuralNetwork,TDNN)也获得了不错的识别效果,它可以适应语音的动态时域变化,能够学习到特征之间的时序依赖。深度学习技术在近十几年中,一直保持着飞速发展的状态,它也推动语音识别技术不断取得突破。尤其是近几年,基于端到端的语音识别方案逐渐成了行业中的关注重点,CTC(ConnectionistTemporalClassification)算法就是其中一个较为经典的算法。在LSTM-CTC的框架中,后一层往往会连接一个CTC模型,用它来替换HMM。CTC的作用是将Softmax层的输出向量直接输出成序列标签,这样就实现了输入语音和输出结果的直接映射,也实现了对整个语音的序列建模。2012年,Graves等人又提出了循环神经网络变换器RNNTransducer,它是CTC的一个扩展,能够整合声学模型与语言模型,同时进行优化。广东语音识别公司自动语音识别(Automatic Speech Recognition, ASR),也可以简称为语音识别。
语音识别是一门综合性学科,涉及的领域非常广,包括声学、语音学、语言学、信号处理、概率统计、信息论、模式识别和深度学习等。语音识别的基础理论包括语音的产生和感知过程、语音信号基础知识、语音特征提取等,关键技术包括高斯混合模型(GaussianMixtureModel,GMM)、隐马尔可夫模型(HiddenMarkovModel,HMM)、深度神经网络(DeepNeuralNetwork,DNN),以及基于这些模型形成的GMM-HMM、DNN-HMM和端到端(End-to-End,E2E)系统。语言模型和解码器也非常关键,直接影响语音识别实际应用的效果。为了让读者更好地理解语音信号的特性,接下来我们首先介绍语音的产生和感知机制。语音的产生和感知人的发音qi官包括:肺、气管、声带、喉、咽、鼻腔、口腔和唇。肺部产生的气流冲击声带,产生振动。声带每开启和闭合一次的时间是一个基音周期(Pitchperiod)T,其倒数为基音频率(F0=1/T,基频),范围在70Hz~450Hz。基频越高,声音越尖细,如小孩的声音比大人尖,就是因为其基频更高。基频随时间的变化,也反映声调的变化。人的发音qi官声道主要由口腔和鼻腔组成,它是对发音起重要作用的qi官,气流在声道会产生共振。前面五个共振峰频率(F1、F2、F3、F4和F5)。反映了声道的主要特征。
业界大部分都是按照静态解码的方式进行,即将声学模型和语言模型构造成WFST网络,该网络包含了所有可能路径,解码就是在该空间进行搜索的过程。由于该理论相对成熟,更多的是工程优化的问题,所以不论是学术还是产业目前关注的较少。语音识别的技术趋势语音识别主要趋于远场化和融合化的方向发展,但在远场可靠性还有很多难点没有突破,比如多轮交互、多人噪杂等场景还有待突破,还有需求较为迫切的人声分离等技术。新的技术应该彻底解决这些问题,让机器听觉远超人类的感知能力。这不能只是算法的进步,需要整个产业链的共同技术升级,包括更为先进的传感器和算力更强的芯片。单从远场语音识别技术来看,仍然存在很多挑战,包括:(1)回声消除技术。由于喇叭非线性失真的存在,单纯依靠信号处理手段很难将回声消除干净,这也阻碍了语音交互系统的推广,现有的基于深度学习的回声消除技术都没有考虑相位信息,直接求取的是各个频带上的增益,能否利用深度学习将非线性失真进行拟合,同时结合信号处理手段可能是一个好的方向。(2)噪声下的语音识别仍有待突破。信号处理擅长处理线性问题,深度学习擅长处理非线性问题,而实际问题一定是线性和非线性的叠加。大数据与深度神经网络时代的到来,语音识别技术取得了突飞猛进的进步。
该模型比百度上一代DeepPeak2模型提升相对15%的性能。开源语音识别Kaldi是业界语音识别框架的基石。Kaldi的作者DanielPovey一直推崇的是Chain模型。该模型是一种类似于CTC的技术,建模单元相比于传统的状态要更粗颗粒一些,只有两个状态,一个状态是CDPhone,另一个是CDPhone的空白,训练方法采用的是Lattice-FreeMMI训练。该模型结构可以采用低帧率的方式进行解码,解码帧率为传统神经网络声学模型的三分之一,而准确率相比于传统模型有提升。远场语音识别技术主要解决真实场景下舒适距离内人机任务对话和服务的问题,是2015年以后开始兴起的技术。由于远场语音识别解决了复杂环境下的识别问题,在智能家居、智能汽车、智能会议、智能安防等实际场景中获得了应用。目前国内远场语音识别的技术框架以前端信号处理和后端语音识别为主,前端利用麦克风阵列做去混响、波束形成等信号处理,以让语音更清晰,然后送入后端的语音识别引擎进行识别。语音识别另外两个技术部分:语言模型和解码器,目前来看并没有太大的技术变化。语言模型主流还是基于传统的N-Gram方法,虽然目前也有神经网络的语言模型的研究,但在实用中主要还是更多用于后处理纠错。解码器的指标是速度。语音识别还无法做到无限制领域、无限制人群的应用,但是至少从应用实践中我们看到了一些希望。广东语音识别公司
由于语音交互提供了更自然、更便利、更高效的沟通形式,语音识别必定将成为未来主要的人机互动接口之一。深圳新一代语音识别设计
先行者叮咚音箱的出师不利,更是加重了其它人的观望心态。真正让众多玩家从观望转为积极参与的转折点是逐步曝光的Echo销量,近千万的美国销量让整个世界震惊。这是智能设备从未达到过的高点,在Echo以前除了AppleWatch与手环,像恒温器、摄像头这样的产品突破百万销量已是惊人表现。这种销量以及智能音箱的AI属性促使下半年,国内各大巨头几乎是同时转度,积极打造自己的智能音箱。未来,回看整个发展历程,是一个明确的分界点。在此之前,全行业是突飞猛进,之后则开始进入对细节领域渗透和打磨的阶段,人们关注的焦点也不再是单纯的技术指标,而是回归到体验,回归到一种“新的交互方式到底能给我们带来什么价值”这样更为一般的、纯粹的商业视角。技术到产品再到是否需要与具体的形象进行交互结合,比如人物形象;流程自动化是否要与语音结合;酒店场景应该如何使用这种技术来提升体验,诸如此类终都会一一呈现在从业者面前。而此时行业的主角也会从原来的产品方过渡到平台提供方,AIoT纵深过大,没有任何一个公司可以全线打造所有的产品。语音识别的产业趋势当语音产业需求四处开花的同时。
深圳新一代语音识别设计