【观点】即便谷歌AI赢了围棋高手,目前它也仍是弱“智”

钛媒体  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

本周,韩国九段顶尖围棋高手李世石将会在首尔四季酒店与谷歌AlphaGo人工智能(AI)系统展开五场人机对决,赛程安排将分别在:3月9日、3月10日、3月12日、3月13日和3月15日。

从目前的舆论看,大多数围棋高手都相信人类会在这场对决中战胜AI,因为AlphaGo此前的对弈表现并未达到所谓的九段水准。然而,谷歌方面则一再强调AI是具备自我学习能力的,是可以通过不断地模拟对弈,累积并成长为顶尖高手的。考虑到计算机每天至少能完成数十万局的棋局模拟,AlphaGo的成长速度绝非人类能够追赶和想象。

于是,一些人索性将李世石与AlphaGo的对决上升到了人类与AI谁将主导世界的哲学高度,认为一旦AlphaGo胜出,或暗示着AI已进入“天网”模式,将逐步接近实现对人类的控制……小编当然理解媒体喜欢制造新闻爆点的需求,但现在就谈AI的自我进化(与自我学习不同),还是太早了。至少在人类弄清楚“意识”究竟是如何在人脑中形成之前,“有思想”的AI是实现不了的。

一个没有思想的AI,在当前0和1的数字世界里仍脱离不了对已知事物的模式识别(pattern recognition,看不懂没关系,稍后解释),对于未知的理论和无法量化的东西(稍后具体说明),AI无能为力,技术上(目前)也无法做到。

(注:与过去一样,为避免用到太多枯燥难懂的术语,小编将用尽量通俗易懂的比喻来说明,不合适之处还望见谅与指出。)

当前AI的基础原理

抛开计算机的代码、算法等概念不谈,用所有人都能理解的话来解释AI的工作机理——其实就像是医生在给病人进行诊断。

具体举例来说,当一个病人出现呕吐症状,是感冒?是食物中毒?还是其他某种疾病?在没有获得更多信息之前,医生通常是无法给出结论的。医生会要求进一步得到病患者的体温、瞳孔变化,甚至是粪便化验结果等信息,才能最终根据医学资料的记载,或者以往类似病例的经验,判断造成呕吐的原因,从而对症下药。

整个根据记载和经验进行评估判断的过程,其实在AI领域里就是建立模型并进行模式识别的过程。呕吐是一个症状,即是一个模式(pattern),掌握越多越详细的模式,对比得到的结果也就会越精准。

然而,没有哪个模型敢说是涵盖了所有可能性pattern,譬如当年让国人高度紧张的SARS,就与普通流行性感冒在诸多症状上表现一致。根据一般判断,误诊为普通感冒的可能性颇高。不过当出现第一个SARS病患进入重症看护,甚至死亡后,医生便开始意识到先前的诊断并不正确,于是就要进行更深入检查,以获得更多数据——映射到AI领域,这就要求AI的算法模型能够对输出结果进行一个反馈校正,即:如果输出与预期不符,要能够根据反馈信息调整模式识别过程,重新输出结果——正所谓AI自我学习的过程。

思想、情感的不可量化

从上面的例子我们可以看到,对比模式(是否符合某种症状)的过程,其实是一种0或1的逻辑判断过程,即:符合就输出1,不符合就输出0。人类可以轻而易举将各种症状罗列,并交由AI进行学习;然而在面对“是不是吃得苦中苦,就方为人上人”这一类的哲学理论时,人类并不能简单地通过量化某些元素,而得到一个必然的结论。

同样的,过去我们一直在争论机器人能否具备人类情感。人类可以通过测量心跳、血压,甚至不同脑区的细胞活跃反应,来判断某个人在看到或听到某个事物时的情感变化,基于此,AI确实有可能模拟出人类的喜怒哀乐。

然而,两个人相处久了会产生友谊或爱情。至于为什么,至少在现阶段人类还无法科学地、系统地给出解释。既然解释不了,AI就没有任何理论基础去实现。所以小编几乎可以断言,一个模拟出来的、号称具有感情的机器人,将必然会被人类察觉到“缺了些什么”。

人类文明的进步在很大程度上也伴随着哲学思想的进步。譬如,在过去的人类社会,私刑、死刑甚至极刑在各国各地均有出现,随着文明进步,思想的觉悟,现今废除死刑成为了一个趋势。AI很难有这样的道德标准判断,至少现阶段人类没法用计算机代码去表达这些东西。仅从这个角度看,AI想要独立于人类(摆脱人类控制而发起机器人独立战争),这样的哲学理念在今天的技术水平下仍不可能实现。

科技大佬对AI看法并不统一

有人会提出,像霍金和特斯拉创始人马斯克的大牛都在反对AI,为AI未来会控制人类而表示担忧,小编提出不同看法难道想证明自己比这些人还聪明?并不是。即使都是科技界的大牛,对AI的看法也不尽统一。

譬如Facebook创始人扎克伯格就认为AI不可怕,并强调AI只是在“模式识别领域做得很好,但在常识问题(common sense)的处理上仍无法胜任”。这里的常识问题就是指人类依靠感觉做决定的事情。

即便是“反对AI”的马斯克,其掌管的特斯拉汽车如今不是正在研发自动驾驶技术吗?这难道就不是一种AI?显然,马斯克所谓的“人工智能将是人类生存最大威胁”的言论也是一定程度自相矛盾的。

AI是一个很宽泛的议题,仅分类就有弱AI、强AI和超级AI三个级别。而通常情况下,我们当前看到的AI都是弱AI,谷歌AlphaGo也只是能力特别强悍的弱AI。强AI需要具备思想,在现今技术水平下人类还做不到。即使根据对行业专家的调查看,也并不是所有AI研究者都认为强AI会于这个世纪内出现,所以看到谷歌AlphaGo就联想到机器颠覆人类,为时过早了。

谷歌AlphaGo的独到之处

正如前面提到的,谷歌AlphaGo也是一个弱AI,因此在整体架构设计上与其他AI系统(如IBM的深蓝系列)并无大的不同。当然,从细节上看,算法就是其独到之处。

根据谷歌描述,AlphaGo的“智能”主要体现在两套“神经网络”(即算法)的相互作用下。与象棋不同,围棋的可能性走法大约为10的768次方(尽管很多是不合常理的走法),因此用穷举法来推演全部可能,然后再选择最佳……显然是不现实的。于是,AlphaGo的第一个“神经”就是对常见的、合理的走法进行初步筛选,以大幅降低选择范围。之后,另一个“神经”就会对筛选后的可能进行树状搜索,但是搜索过程中会对黑棋和白旗的优劣势影响进行价值判断,以减少搜索的深度

谷歌表示,根据两个神经网络的相互配合,AlphaGo只需要在实战中推演未来10万步就可以得到“最佳答案”,而相比之下,IBM的深蓝则需要推演未来200万步。至于人类嘛,顶级高手也无非是在一千步。

所以,考虑到下棋不需要融入感情,并且人会感到累,会因疲惫而分心,AlphaGo几乎没有输的理由——但如果不幸真的输了,不知道谷歌是否会解释为程序的Bug?(本文转自网易科技,作者卢鑫)

随意打赏

提交建议
微信扫一扫,分享给好友吧。