3)上述两个问题的共性是目前的深度学习用到了语音信号各个频带的能量信息,而忽略了语音信号的相位信息,尤其是对于多通道而言,如何让深度学习更好的利用相位信息可能是未来的一个方向。(4)另外,在较少数据量的情况下,如何通过迁移学习得到一个好的声学模型也是研究的热点方向。例如方言识别,若有一个比较好的普通话声学模型,如何利用少量的方言数据得到一个好的方言声学模型,如果做到这点将极大扩展语音识别的应用范畴。这方面已经取得了一些进展,但更多的是一些训练技巧,距离目标还有一定差距。(5)语音识别的目的是让机器可以理解人类,因此转换成文字并不是终的目的。如何将语音识别和语义理解结合起来可能是未来更为重要的一个方向。语音识别里的LSTM已经考虑了语音的历史时刻信息,但语义理解需要更多的历史信息才能有帮助,因此如何将更多上下文会话信息传递给语音识别引擎是一个难题。(6)让机器听懂人类语言,靠声音信息还不够,“声光电热力磁”这些物理传感手段,下一步必然都要融合在一起,只有这样机器才能感知世界的真实信息,这是机器能够学习人类知识的前提条件。而且,机器必然要超越人类的五官,能够看到人类看不到的世界。
声学模型是语音识别系统中为重要的部分之一。河南谷歌语音识别
MarkGales和SteveYoung在2007年对HMM在语音识别中的应用做了详细阐述。随着统计模型的成功应用,HMM开始了对语音识别数十年的统治,直到现今仍被看作是领域内的主流技术。在DARPA的语音研究计划的资助下,又诞生了一批的语音识别系统,其中包括李开复()在卡耐基梅隆大学攻读博士学位时开发的SPHINX系统。该系统也是基于统计模型的非特定说话人连续语音识别系统,其采用了如下技术:①用HMM对语音状态的转移概率建模;②用高斯混合模型(GaussianMixtureModel,GMM)对语音状态的观察值概率建模。这种把上述二者相结合的方法,称为高斯混合模型-隐马尔可夫模型(GaussianMixtureModel-HiddenMarkovModel,GMM-HMM)[9]。在深度学习热潮出现之前,GMM-HMM一直是语音识别主流的技术。值得注意的是,在20世纪80年代末,随着分布式知识表达和反向传播算法(Backpropagation,BP)的提出,解决了非线性学习问题,于是关于神经网络的研究兴起,人工神经网络(ArtificialNeuralNetwork,ANN)被应用到语音领域并且掀起了一定的热潮。这是具有里程碑意义的事件。它为若干年后深度学习在语音识别中的崛起奠定了一定的基础。但是由于人工神经网络其自身的缺陷还未得到完全解决。河南谷歌语音识别语音识别包括两个阶段:训练和识别。
提升用户体验,仍然是要重点解决的问题。口语化。每个说话人的口音、语速和发声习惯都是不一样的,尤其是一些地区的口音(如南方口音、山东重口音),会导致准确率急剧下降。还有电话场景和会议场景的语音识别,其中包含很多口语化表达,如闲聊式的对话,在这种情况下的识别效果也很不理想。因此语音识别系统需要提升自适应能力,以便更好地匹配个性化、口语化表达,排除这些因素对识别结果的影响,达到准确稳定的识别效果。低资源。特定场景、方言识别还存在低资源问题。手机APP采集的是16kHz宽带语音。有大量的数据可以训练,因此识别效果很好,但特定场景如银行/证券柜台很多采用专门设备采集语音,保存的采样格式压缩比很高,跟一般的16kHz或8kHz语音不同,而相关的训练数据又很缺乏,因此识别效果会变得很差。低资源问题同样存在于方言识别,中国有七大方言区,包括官话方言(又称北方方言)、吴语、湘语、赣语、客家话、粤语、闽语(闽南语),还有晋语、湘语等分支,要搜集各地数据(包括文本语料)相当困难。因此如何从高资源的声学模型和语言模型迁移到低资源的场景,减少数据搜集的代价,是很值得研究的方向。语种混杂(code-switch)。在日常交流中。
行业的发展速度反过来会受限于平台服务商的供给能力。跳出具体案例来看,行业下一步发展的本质逻辑是:在具体每个点的投入产出是否达到一个普遍接受的界限。离这个界限越近,行业就越会接近滚雪球式发展的临界点,否则整体增速就会相对平缓。不管是家居、酒店、金融、教育或者其他场景,如果解决问题都是非常高投入并且长周期的事情,那对此承担成本的一方就会犹豫,这相当于试错成本过高。如果投入后,没有可感知的新体验或者销量促进,那对此承担成本的一方也会犹豫,显然这会影响值不值得上的判断。而这两个事情,归根结底都必须由平台方解决,产品方或者解决方案方对此无能为力,这是由智能语音交互的基础技术特征所决定。从技术来看,整个语音交互链条有五项单点技术:唤醒、麦克风阵列、语音识别、自然语言处理、语音合成,其它技术点比如声纹识别、哭声检测等数十项技术通用性略弱,但分别出现在不同的场景下,并会在特定场景下成为关键。看起来关联的技术已经相对庞杂,但切换到商业视角我们就会发现,找到这些技术距离打造一款体验上佳的产品仍然有绝大距离。所有语音交互产品都是端到端打通的产品,如果每家厂商都从这些基础技术来打造产品。
设计有效的算法来重新划分表示为加权有限状态换能器的格子,其中编辑距离为验证某些假设的有限状态换能器。
因此在平台服务上反倒是可以主推一些更为面向未来、有特色的基础服务,比如兼容性方面新兴公司做的会更加彻底,这种兼容性对于一套产品同时覆盖国内国外市场是相当有利的。类比过去的Android,语音交互的平台提供商们其实面临更大的挑战,发展过程可能会更加的曲折。过去经常被提到的操作系统的概念在智能语音交互背景下事实上正被赋予新的内涵,它日益被分成两个不同但必须紧密结合的部分。过去的Linux以及各种变种承担的是功能型操作系统的角色,而以Alexa的新型系统则承担的则是智能型系统的角色。前者完成完整的硬件和资源的抽象和管理,后者则让这些硬件以及资源得到具体的应用,两者相结合才能输出终用户可感知的体验。功能型操作系统和智能型操作系统注定是一种一对多的关系,不同的AIoT硬件产品在传感器(深度摄像头、雷达等)、显示器上(有屏、无屏、小屏、大屏等)具有巨大差异,这会导致功能型系统的持续分化(可以和Linux的分化相对应)。这反过来也就意味着一套智能型系统,必须同时解决与功能型系统的适配以及对不同后端内容以及场景进行支撑的双重责任。这两边在操作上,属性具有巨大差异。解决前者需要参与到传统的产品生产制造链条中去。语音识别目前已使用在生活的各个方面:手机端的语音识别技术。河南谷歌语音识别
远场语音识别技术以前端信号处理和后端语音识别为主,以让语音更清晰,后送入后端的语音识别引擎进行识别。河南谷歌语音识别
听到人类听不到的世界。语音识别的产业历程语音识别这半个多世纪的产业历程中,其有三个关键节点,两个和技术有关,一个和应用有关。,开发了个基于模型的语音识别系统,当时实现这一系统。虽然混合高斯模型效果得到持续改善,而被应用到语音识别中,并且确实提升了语音识别的效果,但实际上语音识别已经遭遇了技术天花板,识别的准确率很难超过90%。很多人可能还记得,都曾经推出和语音识别相关的软件,但终并未取得成功。第二个关键节点是深度学习被系统应用到语音识别领域中。这导致识别的精度再次大幅提升,终突破90%,并且在标准环境下逼近98%。有意思的是,尽管技术取得了突破,也涌现出了一些与此相关的产品,但与其引起的关注度相比,这些产品实际取得的成绩则要逊色得多。刚一面世的时候,这会对搜索业务产生根本性威胁,但事实上直到的面世,这种根本性威胁才真的有了具体的载体。第三个关键点正是出现。
河南谷歌语音识别