谷歌AI通过图灵测试:我们为什么要让机器像人一样?
图片来源:视觉中国
谷歌人工智能新应用Duplex通过图灵测试的消息引发了业界广泛热议。有人说此次事件是AI领域的新里程碑,因为从AlphaGo到Duplex两次证实了现行人工智能技术进程的线路是正确的,业界确实找到了AI向人类智能演进的方法;也有人认为这次Duplex更加注重拟人化的表现,让一些人有了细思极恐的体验,这或许将“AI伦理论”推向一个高潮。
2018 I/O开发者大会上,谷歌展示了令人印象深刻的Duplex人工智能语音技术,这款AI能够模仿真人语气、语速,以流畅的人机交互方式帮助用户完成美发沙龙和餐馆的预定操作。而在大会的最后一天,谷歌母公司Alphabet董事长、前斯坦福校长约翰•轩尼诗道出Duplex(部分)已经通过了图灵测试的消息。一石激起千层浪。
图灵测试或许没有意义
作为公认的计算机科学家,冯诺依曼奖和图灵奖的获得者,轩尼诗的这番话应该不会被公众认为是谷歌的噱头。“机器是否能够思考”这个问题由来已久,图灵测试则是判断某机器能否表现出与人等价或无法区分的智能的一个办法。事实上,该测试本身在人工智能学术界就颇有争议。
图灵测试可以看作是强人工智能的起点,而加州伯克利的约翰•希尔勒教授在1980年的一个叫“中文房间”的著名实验中反驳了强人工智能的观点,当时引发了整个人工智能界的深思。
中文房间的描述如下:
一个对中文一窍不通,只会说英语的人被关在一个封闭、只有一个窗口的房间里,他手上有一本绝对完美的英汉手册,用来指导他以递纸条的方式翻译并回复窗外的汉语讯息。希尔勒认为,尽管房间里的人能够以假乱真,让房间外面的人相信他是一个完全懂中文的人,但客观事实是他压根不懂汉语。
上述过程中,房外人的角色相当于程序员,房中人相当于机器,而手册则相当于计算机程序。每当房外人给出一个输入,房中人便依照手册给出一个输出。而正如房中人不可能通过手册理解中文一样,机器也不可能通过程序来获得理解力。既然机器没有理解能力,那么所谓的“让机器拥有等价人类智能”的强人工智能便无从说起了。
既然如此,图灵测试的意义何在?让机器过度地拟人化的意义又何在?在人工智能发展史上,整个业界自始至终都没有中断过这样的提问。
我们为什么要让机器看上去、听起来都像人?
人工智能的发展经历了控制论和早期的神经网络、符号推理和逻辑演算、芜杂和简约学派的对立、专家系统的崛起,以及今天的人工神经网络和深度学习。在当下人工神经网络和深度学习之进程大背景下,算法的问题已经得到了充分解决,算力则成为“智能”提升的关键。
硅谷科学家雷蒙德•库茨魏尔于2006年提出AI的问题在于算力,根据摩尔定律他预测具有人类智能水平的机器将在2029年出现。而今天PC摩尔定律已死,AI芯片的性能提高之快远超前者。要知道,谷歌最新TPU性能比第二代的180 tflops提升了八倍,达到了100pflops,这种低精度并行运算在短短一年内直接从T时代跨到了P时代。这一切看上去都很顺利,“与人类同等智能的AI”应该很快就要来了。
但是现在问题来了。如果说“与人类同等智能”是AI的终极目标,那么距离这个终点越近,人们的质疑声就越多,总结起来就是:我们为什么要让机器像人一样?
当谷歌的AI产品惊艳全球的时候,业界也在为人工智能的负面影响感到忧虑。比如国内的社交网站上就出现了“如何看待用Duplex实施一次‘完美的’电信诈骗”这样的设问,而论题下面回复的用户几乎都陷入了沉思。
科技媒体The Verge刊文称Google Duplex会扩大人性自私的一面。因为Duplex取代了一些预约工作的中间环节,而这些环节本应是人与人沟通的一部分。未来Duplex会取代更多社交,用户也许会走向人格封闭,人与人之间的距离也会越来越远。
微软也是AI道德论的坚定捍卫者,Bulid2018大会开场纳德拉聊的第一件事就是道德化的人工智能。IEEE也于去年发布了《合乎伦理的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》报告,从高层次伦理角度写入了人工智能价值设计的参考原则,作为自身标准化文档的一部分。
其实,在人工智能发展史的早期阶段,就有科学家提出“我们只需用机器去解决问题,而为什么要把机器设计地像人一样?”这样的疑问。或许“像人一样的机器”有着人类本身审美上的执着,而当机器越来越像人的时候,人类却表现出无比的恐惧。
正如轩尼诗在2018谷歌I/O开发者大会落幕时说的最后一句话:我希望它(AI)不会伤害到你。
【钛媒体作者介绍:水哥,高级工程师,科技专栏作者,中国计算机学会会员。IT评论、业界分析,不一而足。】
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App