下围棋虐了人类,谷歌旗下Deepmind还要像人类一样说话

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

下围棋虐了人类,谷歌旗下Deepmind还要像人类一样说话

谷歌 ( 微博 )旗下的人工智能公司DeepMind又取得突破。继AlphaGo赢了人类棋手后,他们又研制出了能够生成模仿人类语音的系统,该系统让机器说话与人类说话之间的差距缩小了50%。DeepMind将这个系统命名为Wavenet。

让人能与机器对话一直是人类希望在人工智能领域里实现的目标。但是,目前用计算机生成语音仍然大量地依赖于TTS(文本到语音)拼接技术。在这个过程中,机器首先要记录一个说话人的声音片段,并基于此构建超大型的数据库,随后,经过再次结合过程,形成完整的表达。这样一来,在不记录一个完整的新数据库的情况下,要修饰声音就会变得很困难(比如,转化到不同的说话者,或者转化语音中的情感和语气)。

WaveNet改变了这种旧范式,它直接对原始声音信号的声浪建模,每次对一个样本进行建模。和生成更加自然的语音一样,使用原始的声波意味着WaveNet能对任何音频建模,其中包括音乐。

WaveNet使用的是全卷积神经网络,当中的卷积层有多个扩张因素,允许它的接收域在深度上呈指数级的增长,覆盖数千个时间步长。

研究人员称WaveNet能知道自己说的是什么。首先,研究人员通过把文本转化成一个语言与声学特征序列(这个序列包含了当下的声音、字母、词汇等),然后把这一序列喂到WaveNet中,从而能让模型了解到自己要说什么。

同时,研究人员还指出,如果在没有文本序列的情况下训练这一网络,它仍然能生成语音,但是这样的话它需要辨别要说的是什么。测试结果显示,这样一来,WaveNet结果有点像在说胡话,其中真实的单词被类似发音的声音打乱了。

此外,WaveNets在有些时间还可以生成例如呼吸和嘴部运动这样的非语言声音,这也反映了一个原始的音频模型所拥有的更大的自由度。

2015年被谷歌收购后,DeepMind就获得了使用谷歌数据的权利,这对于他们训练自己的系统意义重大。这次训练WaveNet的数据用的就是谷歌TTS数据库。DeepMind还让系统与谷歌现在最好的TTS系统(参数的和合成的)以及与人类使用MOS进行了对比。对比结果显示,WaveNet降低了人类表现与机器表现之间的差异,在英语和中文上都将差距缩小了50%以上。

训练结束后,研究人员可以把网络数据作为样本,产生合成的表达,进行取样,然后用到下一个步骤的预测中。这样按部就班地建立样品计算成本高昂,但研究人员称,在生成复杂的、逼真的音频上,这至关重要。

彭博社称,目前谷歌还没有推出关于WaveNets的任何商业应用,因为它需要巨大的计算能力,训练的音频信号达到每秒16000次以上。

但许多高科技公司可能会密切关注DeepMind的突破。因为语音正成为人类和机器互动中越来越重要的手段。 亚马逊 苹果 微软 和谷歌都在投资能让用户通过语音进行交互的个人数字助理。谷歌播放的国际总监马克·贝内特称,使用谷歌移动搜索中,有20%是由声音,而不是书面文字完成的。

谷歌同样没有对外界透露DeepMind的研究会给自己带来哪些商业上的帮助。但在今年,谷歌曾对外表示已经使用了DeepMind40%的技术,其中包括帮助减少数据中心的电力需求。以及将DeepMind的技术用到YouTube和谷歌播放的广告产品服务上。

推荐:关注腾讯数码微信官号(ID:qqdigi)获取苹果iPhone 7动态,最新资讯、购买指南、详尽 评测 、一手视频、互动直播应有尽有。聊天聊点啥?看这儿。

下围棋虐了人类,谷歌旗下Deepmind还要像人类一样说话

随意打赏

google deepmind谷歌围棋alphagodeepmind 围棋deepmind 医疗deepmind公司谷歌人机大战围棋deepmind谷歌智能围棋谷歌围棋大战
提交建议
微信扫一扫,分享给好友吧。