对话|俞栋:在人工智能的很多应用场景,语音识别是一个入口
【本文转载自《机器之心》10月31日报道。】
俞栋博士1998 年加入微软公司,现任微软研究院首席研究员,兼任浙江大学兼职教授和中科大客座教授。语音识别和深度学习方向的资深专家,出版了两本专著,发表了 160 多篇论文,是 60 余项专利的发明人及微软认知工具包CNTK 的发起人和主要作者之一。曾获 2013 年 IEEE 信号处理协会最佳论文奖。现任 IEEE 语音语言处理专业委员会委员,曾任 IEEE/ACM 音频、语音及语言处理汇刊、IEEE 信号处理杂志等期刊的编委。
俞栋:在安静环境下并使用近距麦克风的场合,语音识别的识别率已越过了实用的门槛(参见微软对话语音识别技术达至人类专业水平);但是在某些场景下效果还不是那么好,这就是我们这个领域的前沿。现在大家主攻几点:
首先,能不能进一步提升在远场识别尤其是有人声干扰情况下的识别率。目前一般远场识别的错误率是近场识别错误率的两倍左右,所以在很多情况下语音识别系统还不尽如人意。远场识别至少目前还不能单靠后端的模型加强来解决。现在大家的研究集中在结合多通道信号处理(例如麦克风阵列)和后端处理从拾音源头到识别系统全程优化来增强整个系统的表现。
另外,大家还在研究更好的识别算法。这个“更好”有几个方面:一个方面是能不能更简单。现在的模型训练过程还是比较复杂的,需要经过很多步骤。如果没有 HTK 和 Kaldi 这样的开源软件和 recipe 的话,很多团队都要用很长时间才能搭建一个还 OK 的系统,即使 DNN 的使用已经大幅降低了门槛。现在因为有了开源软件和 recipe,包括像微软CNTK 这样的深度学习工具包(现已更名为微软认知工具包),事情已经容易多了,但还有继续简化的空间。这方面有很多的工作正在做,包括如何才能不需要 alignment ,或者不需要 dictionary。现在的研究主要还是基于 端到端的方法,就是把中间的一些以前需要人工做的步骤或者需要预处理的部分去掉。虽然目前效果还不能超越传统的 hybrid system,但是已经接近 hybrid system 的 performance 了。
另一方面,最近几年大家已经从一开始使用简单的 DNN 发展到后来相对复杂的 LSTM 和 Deep CNN 这样的模型,但在很多情况下这些模型表现得还不够好。所以,一个研究方向是寻找一些特殊的网络结构,能把我们想要 model 的那些东西都放在里面。我们之前做过一些尝试,比如说人在跟另外一个人对话的过程中,他会一直做预计,这预计包括很多东西,不单是包括你下一句想要说什么话,还包括根据你的口音来判断你下面说的话会是怎样等等。我们曾尝试把这些现象建在模型里以期提升识别性能。很多的研究人员也在往这个方向走。
还有一个方向是快速自适应的方法,就是快速的不需要人工干预的自适应方法(unsupervised adaptation)。现在虽然已经有一些自适应的算法,但是它们相对来说自适应的速度比较慢,或者需要较多的数据。有没有办法做到更快的自适应?就好像第一次跟一个口音很重的人说话的时候,你可能开始听不懂,但两三句话后你就可以听懂了。大家也在寻找像这种非常快且能保证良好性能的自适应方法。快速自适应从实用的角度来讲还是蛮重要的。因为自适应确实在很多情况下能够提升识别率。
从识别来讲,我觉得目前主要是这些方向。
记者:Google DeepMind 最近提出了一种通过学习合成波形的方式生成语音的技术 WaveNet,据说可以生成感觉更自然的语音,微软在这方面有什么研究项目?
俞栋:微软也在做类似工作,但因为合成的研究团队和工程团队都在中国,我对他们具体到哪个地步不是特别清楚。有一些信息我也不能直接披露,所以就不详细讲了。
记者:深度学习已经在语音识别得到了非常出色的表现,您觉得未来语音识别还能在深度学习的哪些方面实现突破?
俞栋:刚才我讲了,其中的一个可能性就是通过各种类型的预计和自适应使得深度学习模型表现更出色,这是有可能继续提升的地方。另外就是端到端建模。
还有,像我们最近也在做一些特殊环境中的语音识别,比如说在高噪音环境下,或者你说话的时候有背景的音乐,或者是会议室里面有多个人同时说话——这些情况下现在的语音识别效果是很差的。所以我们也在研究如何用深度学习的方法在比如多说话人的情况下做得比原来传统的方法好。我们现在已经在 arXiv 上面发布了一个早期结果的预印本(Permutation Invariant Training of Deep Models for Speaker-Independent Multi-talker Speech Separation,论文链接:https://arxiv.org/abs/1607.00325v1),含有更多实验结果的正式版本现在正在审稿中。我们这一称为 Permutation Invariant Training 的方法主要用于语音分离。用这种方法整个过程比较简单而效果很好。在这些方面深度学习都能带来一定的突破。当然,我前面也讲了,完全解决这些问题需要软硬结合,从拾音到前端和后端需要系统性优化。
记者:在类似汉语这种多音字、多音词比较多的语言中,语音识别方面有什么和英语这样的拼音语言不一样的地方?
俞栋:从语音识别的技术角度来讲没有太大的区别,因为最终都是要将语音信号,即 waveform sequence,变成字或者词的 sequence。多音字和多音词只是词表里对应的字或词有多个发音规则而已,这在其他语言比如英语中也很常见。
但中文作为一个有音调的语言,音调对字和词的识别是有影响的。如果音调信息用好了,就有可能提升识别率。不过大家发现 deep learning 模型有很强的非线性映射功能,很多音调里的信息可以被模型自动学到,不需要特别处理。
唯一可能不一样的地方是如果你用端到端系统,中英文的建模单元会不一样。因为在英语里面你一般会选用字母、音素、或音节作为建模单元,而不会选用词作为建模单元。但在中文里面你可以直接用汉字作为建模单元。所以建模单元的选择上可能会不太一样。除此之外,基本上没有太大区别。
记者:技术上没有太大区别?
俞栋:没有太大区别。
记者:具体来说,您觉得自然语言处理能够给语音识别带来哪些帮助?
俞栋:目前来讲,自然语言处理对语音识别本身的帮助还不是很大。要说帮助比较大的方面,如果语言模型(language model)算做自然语言处理的话,语言模型还是起到了很大作用的,尤其是在有噪音的环境下,如果没有语言模型来做约束,效果一般来说都比较差。但是除此之外,现在的 NLP (自然语言处理)技术对语音识别没有起到很大的作用。大家尝试过很多用自然语言处理技术提升识别率的方法,效果都不理想。
但从理论上来讲自然语言处理应该可以起到作用。因为我们能理解句子含义,我们就能发现有一些语音识别结果是说不通的,比如说前面的主语跟后面的宾语根本就不搭,在这种情况下识别系统应该选择其他的 hypothesis,对话系统则应该寻求澄清,但现有系统没有这么做。没有这么做的原因在于它其实不理解到底用户说了什么,也没能充分利用远距离的 dependency 信息。这样的错误,有可能通过自然语言处理的技术发现并得到更正。但语义分析是个难题,怎么做还是一个未知数。
记者:刚才我们讲到在噪音环境下,包括远距离环境下的识别,此外还有多个说话人一起说话的情况下的语音识别。在这三方面,您觉得现在和未来可以通过什么样的方式来解决这个问题?
俞栋:前面提过,解决远距离识别很重要的一点是要有硬件的支持。至少以目前的技术,仅仅通过后端处理效果还不够好。因为信号在传输过程衰减很厉害,距离越远衰减越厉害,信噪比就越差。所以远距离识别一般都需要做增强。比较好的增强需要硬件支持,比如说麦克风阵列。深度学习方法也能提供一些帮助。当你有多通道信息的时候,深度学习方法还可以做自动的信息融合以提升远距离语音识别的性能。
多通道信号处理,比如麦克风阵列,对分离含噪语音和多人混合语音也至关重要。另外,深度学习方法,比如我刚才提到的 Permutation Invariant 训练方法,也可以解决一部分语音分离问题,是整体解决方案中的重要一环。分离后的结果可以送到后端做识别。后端的识别结果反馈回来也能帮助提升分离和说话人跟踪的效果。所以最终的系统应该是前端的分离跟后端的识别融合互助的系统。
记者:从您和邓力老师的《Automatic Speech Recognition: A Deep Learning Approach》出版到现在,您认为期间深度学习有了什么新的研究成果? 哪些研究成果您认为是很重大的?
俞栋:我们写这本书的时候,LSTM这样的模型才刚刚开始成功应用于语音识别。当时大家对其中的很多技巧还没有很好的了解。所以训练出来的模型效果还不是那么好。最近,我的同事 Jasha Droppo博士花了很多时间在 LSTM模型上面,提出了一种很有意思的基于smoothing的 regularization 方法,使得 LSTM 模型的性能有了很大的提升。他的 smoothing 方法的基本思想在我们的 human parity 文章中有介绍(论文链接:)。
另外一个比较大的进展是 Deep CNN。最近两年里,很多研究组都发现或证实使用小Kernel的 Deep CNN比我们之前在书里面提到的使用大kernel的CNN方法效果更好。Deep CNN跟LSTM 比有一个好处:用 LSTM 的话,一般你需要用双向的 LSTM 效果才比较好,但是双向 LSTM会引入很长的时延,因为必须要在整个句子说完之后,识别才能开始。 Deep CNN的时延相对短很多,所以在实时系统里面我们会更倾向于用 Deep CNN 而不是双向 LSTM。
还有就是端到端的训练方式也是在我们的书完成后才取得进展的。这方面现在大家的研究工作主要集中在两类模型上。一类就是 CTC 模型,包括 Johns Hopkins 大学的 Dan Povey 博士从 CTC 发展出来的 lattice-free MMI;还有一类是 attention-based sequence to sequence model。这些模型在我们的书里面都没有描述,因为当时还没有做成功。即便今天它们的表现也还是比 hybrid model 逊色,训练的稳定性也更差,但是这些模型有比较大的 潜力,如果继续研究有可能取得突破。
另外一个进展是单通道语音分离,尤其是多人混合语音的分离。这方面有两项有趣的工作。一个是 MERL 三菱电机研究实验室的John Hershey 博士提出的 Deep Clustering 方法,另外一个是我们提出的 Permutation Invariant Training。实现上,Permutation Invariant Training 更简单。John Hershey 认为有迹象表明 deep clustering 是 permutation invariant training 的一个特例。
这些都是在我们完书之后最近两年里比较有意义的进展。
记者:也是在这个月,Google 发了神经网络翻译系统(GNMT),您对这个系统有什么看法?微软在这方面有没有这样的研究?
俞栋:微软很早以前就在做类似的工作了。你可能知道微软有个基于文本的翻译系统,在 Skype 上也有一个 speech to speech translation system。在这些系统里我们已经用到了 neural machine translation 的一些东西。不过翻译主要是由另外的团队在做,我在这里面涉及比较少。
记者:语音特征参数提取与鲁棒性语音识别与合成的关键因素,特征参数在不利的噪声环境下鲁棒性都会急剧下降。目前有什么新的研究可以在特征提取中保持语音信号的最重要参数吗?
俞栋:目前一个方法是用信号处理技术对输入信号进行分离和增强。另一个方法是用深度学习取代人工从 waveform 直接提取特征。只要训练数据的coverage 足够大,各种各样场景的训练数据都有,模型的结构设计合理,那么模型的泛化能力和鲁棒性就能得到提升。两种方式结合可以得到更好结果。不过,泛化是机器学习一个未解决的基本问题,更好的解决方案有待机器学习理论的进展。
记者:微软在语音识别上如何解决方言带来的口音问题,比如说“le”和“ne”?针对方言,微软的语料库是从何而来的?
俞栋:一个简单的方法是增加带口音的训练语料。如何有效利用这些语料有些讲究。大概 3、4 年前,我们发过一篇文章,研究怎么样在 deep learning model 上做自适应。带口音的识别问题可以看作一个自适应的问题。假设你已经有标准语音的模型,带口音的语音可以看成标准语音的某种偏离。所以我们的解决方法是做自适应。做自适应的时候,我们可以把有类似口音的语料聚合在一起以增加训练数据。我们发现这样做效果挺不错。如果已经有系统上线,收集带口音的语料并不困难。如果你用过 Windows Phone,你就知道 Windows Phone 的 Cortana 里面有个选项,问你想用标准的识别模型还是想用含口音的模型,用户可以选择。
记者:今年,微软发布了 CNTK认知工具包。您能说一下 CNTK 跟 Theano、TensorFlow、Torch、Caffe 这些工具的区别吗?以及在微软语音系统上是怎么样应用 CNTK 的?
俞栋:所有的这些开源工具现在都做得相当好了,都能够满足一般的研究或者是工程的需要。但是每一个开源工具都有自己的长处和弱点。CNTK 是唯一一个对 Windows 和 Linux 都有比较好的支持的深度学习工具。对比其他工具,CNTK 对多 GPU 并行训练有更好的支持, 不仅并行效率高,而且简单易用。CNTK 对 C++的支持也是最全面的,你可以完全使用 C++来构建、训练、修改、和解码模型。CNTK 版本 1 对 Python binding 支持比较弱。但是刚刚发布的版本 2.0 提供了非常强大的 Python binding。另外,CNTK 提供了许多运行效率很高的并行文件阅读模块,大大提升了并行效率。这里我想提一下,我的很多同事都对 CNTK 2.0 有很大贡献。尤其值得一提的是 Amit Agarwal,他是我见过的非常难得的优秀软件工程师和架构师,他主导设计了 CNTK2.0 的主要 API。我在他身上学到很多东西,我非常享受与他讨论的时间。
我和几个同事刚开始写 CNTK1.0 的时候,主要用户是语音识别研究员和工程师,所以 CNTK 对语音相关的模型、数据结构、和文件格式支持得相对比较好。因为语音识别系统训练数据很大,我们很早就在 CNTK 中实现了并行训练的算法。目前,微软产品线所有的语音识别模型都是用 CNTK 训练的。最近我们的语音识别系统在 SWB 数据集上能做到比专业转录员错误率还低,CNTK 对缩短我们达到这一里程碑所需的时间有很大贡献。
微软首席语音科学家黄学东和他的团队。后排左起:Wayne Xiong, Geoffrey Zweig, Frank Seide;前排左起:黄学东, Dong Yu, Mike Seltzer, Jasha Droppo,Andreas Stolcke;摄影:Dan DeLong
记者:您曾说过,人工智能的成功在于将多种方法的整合到一个系统。在你们最近发表的论文中,我们看到目前最新的语音识别的研究用到了多任务优化(Multitask Joint learning)以及多种模型混合(ensembles of models)的方法,能谈谈各自的优势吗?
俞栋:相对来说,语音识别是一个任务比较单一而非通用的人工智能系统,语音识别的问题定义得也比较清晰。在这样的系统里面,把深度学习模型与其他模型进行整合的重要性相对来说比较小。这也就是为什么只要你有足够的数据和运算能力,即便是完全的 deep learning end-to-end system 表现也不错。不过目前来讲,深度学习和 HMM 相结合的混合模型在大多数场景下仍然表现最佳。
语音识别中使用多任务优化的主要目的,是增加模型的泛化能力或利用一些不能直接利用的辅助信息,而多种模型混合(ensembles of models)的主要目的是利用模型间的差异来增强混合后模型的表现。值得指出的是,由于深度学习模型属于非线性非凸的优化问题,当初始模型不同时,最后的模型也不同。尽管这些模型的平均表现很接近,但因为它们收敛到的点不一样,模型之间仍有差异,融合这些模型也能提升一些性能。
更通用的人工智能系统还需要能做决策(decision-making)、要做推理、要能理解。对于这样的系统来说,单靠深度学习方法远远不够,而要结合过去几十年里人工智能其他分支取得的一些进展,比如说增强学习、逻辑推理、知识表达以及最优和次优搜索。还有,如果我们想让一群人工智能系统自己从与环境的交互中快速寻找答案,那么诸如蚁群算法和遗传算法一类的算法就变得很重要了。
记者:今年您觉得在语音识别方面有哪些比较重量级的论文值得关注?
俞栋:除了前面提到的 LF-MMI 、 Deep CNN(包括我们最近发表的 LACE 模型)和 Permutation Invariant Training,另外一个比较有意思的论文是 MERL 在 arXiv 上发表的一篇文章。他们结合了 CTC 和 attention-based model,利用这两个模型各自的长处来克服对方的弱点。
记者:您是怎么看待监督学习、半监督学习和无监督学习这三个学习方式呢?
俞栋:监督学习是比较 well-defined,有比较明确的任务。目前来讲,深度学习对这一类问题效果比较好。
无监督学习的目的是要寻找数据中的潜在规律。很多情况下,它试图寻找某种特征变换和相对应的生成模型来表达原始数据。但无监督学习不仅本身困难,对无监督学习系统的评价也很难。原因是通过无监督学习找到的规律不一定对你将来的任务有帮助,或者它对某一任务有帮助,换一个任务就没有帮助了。当然,如果你的目标仅仅是数据压缩,评价还是容易的,但我们使用无监督学习压缩本身往往不是主要目的。
记者:那半监督学习呢?
俞栋:半监督学习介于两者中间。因为你已经有一部分标注信息了,所以你的任务是明确的,不存在不知如何评估的问题。半监督学习在实用系统里还是有一定作用的。比如说我们需要标注大量数据来训练语音识别系统,但人工标注既花时间又花钱,于是你往往有比标注数据多得多的未标注数据。没标注过的数据,也有很多可以利用的信息,虽然它们的价值远远小于标注的数据。半监督学习对我们的系统性能有一定的提升。
记者:最后一个问题,在整个人工智能的布局上,您认为语音识别是一个怎样的定位?
俞栋:在很多应用场合,语音识别是一个入口。没有这个入口的话,大家都会觉得这个智能机器不够智能或者与这个智能机器交互会有困难。在人机交互中语音识别是第一步。如果语音识别做得不够好,那后期的自然语言理解等的错误率就会大幅上升。这也是为什么语音到语音的翻译要比文本到文本的翻译难很多,因为在语音对语音的翻译系统里语音识别产生的错误会在后面翻译的过程中放大。
同样,从历史上看,语音识别也为机器学习和人工智能提供了很多新的方法和解决方案。比如语音识别里的关键模型 Hidden Markov Model 对后来机器学习的很多分支都有帮助。深度学习也是先在语音识别上取得成功,然后才在图像识别和其他领域取得成功的。
END
你也许还想看:
【二十一世纪的计算首尔现场直播】
“二十一世纪的计算”学术研讨会是微软亚洲研究院的年度学术盛会。作为中国及亚太地区规模最大最具影响力的计算机科学教育与研究盛会之一,该大会已在中国、日本、韩国、新加坡等多个国家和地区成功举办了17届。2016年11月3日,大会将来到韩国首尔举行。
在本次大会上,微软亚洲研究院的研究院人员将与包括2002年图灵奖获得者Adi Shamir在内的学术界领军人物们一道,深入探讨人工智能与人类智慧的结合下,从而改变社会的无限潜能。我们将对本次会议以微信群分享的方式进行现场直播。名额有限,快扫描下图二维码第一时间收看直播吧!
感谢你关注“微软研究院AI头条”,我们期待你的留言和投稿,共建交流平台。来稿请寄:msraai@microsoft.com。