机器语言:Siri是如何完成牙牙学语的
语音设备从好莱坞科幻电影机器人机械发声的概念到The Big Ban Theory中Raj流利地调戏Siri,可谓发展迅猛。今天的语音技术帮助人们导航、查看短信、誊写邮件,汽车和手机搭载的语音已经跟人非常接近,那么这些声音是怎么获得的呢?
J. Brant Ward是Nuance语音设计和发展业务的高级总监,他在硅谷的TTS产业(文本语音转换,text to speech)一待就是10年。Nuance是全球最大的独立语音识别和转换技术供应商。公司的业务包括给医疗行业提供语音治疗记录,他们研发的语音识别和转换技术可以从平板一路用到 汽车 。
TTS产业竞争激烈而且非常神秘
Ward和Nuance的高级设计总监David Vazquez目前正在研发公司的下一代合成语音。他们称之为“技术和艺术的完美结合”。
尽管外界普遍认为Siri的实现是Nuance做的,但Ward和Vazquez每每对这个话题总是顾左右而言他。对业务细节表示无可奉告,但两人还是如此向我们解释了声音在技术上的实现:显然不是配音人员对着字典一个词一个词地录进去的。但语音技术有时需要读取某个邮件中的全部内容,或者是从网站上给你找回资料,所以它对这些内容中的每一个字都要认得。
“比如你找最近的一家花店,”Ward说道,“单单美国就有超过2700万的这类店铺,你不可能把每一个都事先录制好。”
“我们的做法是找捷径,”Vazquez一边说着一边拿出他们的“剧本”——一打布满诡异句子的表格。Vazquez指着表格解释道,这些内容都是富含了大量语素的精选句子。语素是语言在声学上的基本组块——比如Cat中的“K”音。总之内容看起来非常像绕口令。
之后配音工作人员会将这些内容录制起来(大约要数月的时间)。这些数据再经过分析,分类,标记进入一个大数据库,整个过程会有一个配音团队和一个软件团队参与。
这一过程结束后,Nuance的文本语音转换引擎会将这些数据碎片和过去的数据整合在一起,拼成的句子大大超过录入的信息量,但两者的声音会非常接近——因为从技术上讲,这就是原来的声音。
让计算机把声音拼接起来绝不简单
这个过程专业的名称叫作“语流合成”;有点像一封老式的勒索信,你从各个地方撕下不同的文字然后拼接在一起构成勒索信的内容。
人们通常在开始写字以前就会说话,语言这件事是无意识的:你不用一边说一边关注重音、停顿、语速、语素间的关系…但是同一件事让计算机来完成,那所有的情况都必须考虑到。比如a在各种情境下的发音都是不同的,同是放在中间的cat和catty,放在开头的alligator;还有你的重音落在不同位置情况也会不同。
单词之外,放在语句里的情况更加复杂。比如一个预定航班的电话,“你要去旧金山还是纽约呢?”和“你要去旧金山、滨州还是纽约呢?”这两个句子在英语中前一个是升调结束,后一个是降调。别看没什么大不了,但用户一听就能感觉到机械感太强,体验太差。
早期的合成语音为什么听起来机械感十足?
最典型的例子就是霍金的声音。在90年代以前,计算机的处理能力还做不到语流合成,也就是把无数段话拆解、分析、标记然后重组。所以那时候的语音实际上就是简单的合成器。
这种情况一直持续到20世纪早期,计算机终于有能力在超大规模的数据库中完成搜索和配对,所以有公司开始做自然语言的语流合成(包括Naunce)。同时,人工智能的成熟也可以让计算机做出相对靠谱的判断。比如说用户提到一个“风”字,计算机可以反馈出“起风了”或者是“空穴来风”的选项。
苹果开始在第一代Mac中提供文字-语音的阅读器,而移动技术最终的发展真正刺激了语音技术需求。语音技术在今天的重要性可以从各大巨头的表现可见一斑,微软CEO鲍默尔在去年给股东的邮件中非常强调自然语言解析和机器学习的重要性。谷歌、微软、亚马逊、苹果都在纷纷部署自己的语音助手。
而另一面上,传统行业也会受到冲击,Voices.com(配音服务平台)的首席营销官Stephanie Ciccarelli则向媒体表示:TTS已经变成他们行业的一个威胁,语音技术甚至开始取代了一部分的配音工作。
Via:
theverge
相关:
三巨头的下一步是决战语音助手
Nuance在智能语音助手领域的长跑