人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

【编者按】本文作者沐阳浸月,中科院自动化所复杂系统国家重点实验室研究生,主攻水下机器人。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

“假设在你面前站着一个黑衣人,他浑身都裹着一层布,所以你并不知道他是真正的人还是什么东西。就在这时你问了他一个问题:什么事情iPad能做,但是iPhone却不能做?他思考片刻回答道:焖住方便面桶。说完,默默地拿起iPad就把你刚刚泡上的方便面用iPad盖上了。”

11月23日,世界机器人大会在国家会议中心盛大开幕,规模可谓盛况空前。习近平主席发来贺电,李克强总理进行批示,李源潮副主席亲自到会并发表重要讲话等,各个国家顶级的机器人专家悉数进行了精彩绝伦的演讲,比如这个: 超限机器人是什么样的,比如说纳米机器人? | 2015 世界机器人大会

这里就不赘述了,我也到场看了,有所感悟,主要的目的是想借此机会给雷锋网的读者们来科普一些关于人工智能的基础理解。

什么是智能?

通过此次盛会,机器人以及人工智能的概念又一次被推上了风口浪尖。因为机器人能看到实体,所以大家并不陌生。但是人工智能对于大众来讲却一直是一个很玄幻的概念,而且针对人工智能,很多谬误也遍地开花。

所以,我就从一个基础的角度讲讲人工智能到底是什么,把它从一个看似遥不可及的概念拉回到一个我们人人都能理解的层次。

“智人”,生物学分类中人属的一个“种”,地球上现今全体人类的一个共有名称,说的也就是我们自己。我们用“智能”作为和其他生物划清界限的一个重要指标。

那到底什么是智能?


智能是我们所具有的基于神经器官一种高级的综合能力,它包含有感知、知识、记忆、理解、联想、情感、逻辑、分析、判断、决定等多种能力,它是一种可以使我们做出导致成功的决策的能力。

所以从字面上理解,人工智能自然就是由人工制造出来的系统所表现出来的一种智能。但是,真实的人工智能并不像我们字面上看到的这么简单。因为我们在研究人工智能的过程中,并不只是单单想制造出来一种机器或者一段程序,他的表现“看起来”像人一样,因为我们自身也并非一种完美的存在,我们也有自己的不足和缺陷,所以我们要追求的人工智能需要从以下四个维度去定义。

先把图放上:

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

在上图的四种定义中,顶部的定义关注思维过程与推理,底部定义强调行为;左侧的定义根据与人类表现的逼真度来权衡,右侧的定义依靠合理性的理想的表现量来衡量。

而合理的定义就是如果一个系统可以基于已知条件做正确的事情那么它就是合理的。

下面我们对这四种定义进行详细叙述。

1、 像人一样思考

如果我们说某个程序能像人一样思考,那么我们必须找一个办法来确定人是如何思考的,但是十分遗憾地说,目前并没有一个十分有效的办法来找出我们人类的思维方式。所以我们到底是如何思考的至今仍然是一个待解的谜题。虽然是个难题,但是我们也在试图通过我们可以想到的办法来解决它,一个是通过对人类思维行为的观察和实验,一个是对我们的大脑进行观察与试验,而对大脑解密也是闻名世界的人类大脑计划(Human Brain Project, HBP)想要解决的一个子问题。

在第一种办法中,我们可以通过两项任务来完成:

一个是通过内省,也就是我们通过对自己思维过程的捕捉、回顾和思考来获得我们自身的思维过程;


另一个便是通过心理实验,也就是观察工作和进行思维活动的人,我们通过对被观察人的行为以及行为所表现出的特征,通过心理学等学科的方法,来逆向推测人类的思维活动。

但是我们很容易发现,这种方法中的两项任务都具有很大的主观性。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

我们的自省,不同人有不同的生活阅历以及三观,这就导致不同的人对自己的认知以及对自己思维的反省都不可能客观,而且人类的思维过程也有十分大的缺陷,即使是一个具有高度自省能力的人也很容易落入窠臼。这个缺陷中的一种就是我们总是相信我们愿意相信的东西,即我们无法意识到的认知偏向性,将导致我们对于预期中和预期外的后果有着不均等的注意,所以我们的内省自然也经常会带有或多或少的认知偏向性。

而通过观察被观察人来逆向得出思维过程则更充满主观,这个主观既来自被观察人,也来自观察人,被观察人的真实思维不一定会有外在表现,而外在表现也并不一定是真实思维活动,这也正如成语“口是心非”所描绘的场景。而观察人对行为-思维的判断则在本身的主观性上又加了一层。由于观察人的经验、学识以及认知的不同,自然对同一个行为也会产生不一样的判断,所以这种办法虽然可行,但是结果的客观性的衡量仍然有待考证。

所以这种方法遇到困难后人们就自然想绕过“心理”这个层面,直接对我们的大脑进行研究,所以我们的目标又投向了神经生理学以及神经信息学。

只有具备了人脑足够精确的理论,我们才能把这样的理论表示成计算机程序。人类大脑计划的目标是利用现代化信息工具,将大量、不同层次的有关脑的研究数据分析、处理、整合与建模,建立神经信息学数据库和有关神经系统所有数据的全球知识管理系统,以便从分子水平到整体系统水平研究、认识、保护、开发大脑。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

大脑如何思维一直是困扰人类的一个问题。人类的“智能”正是来自人类极其复杂的大脑。在过去的六亿年中,生物体通过进化产生出由大量神经元相互联结而形成的 神经网络 ,解决了在不断变化的复杂环境中人脑如何处理各种复杂信息的问题。尤其是人的高级认知功能的高度发展,使得人类成为万物之首,具备了主宰世界的能力。由于人脑的结构和功能极其复杂,所以我们需要从分子、细胞、系统、全脑和行为等不同层次进行研究和整合,才有可能揭示其奥秘。这里补充一句,人类大脑计划虽然是个十分伟大的计划,但是遗憾的是,它现在也正在陷入一场危机,有兴趣的朋友可以移步《人类大脑计划陷入困境》,这里不再赘述。

2、像人一样行动

如果说像人一样思考说的是把模仿人的内部智能思维过程定义为人工智能,那么像人一样行动则说的是把模仿人类智能外在表现称为了人工智能。

值得注意的是,这种模仿并不是一种物理模拟,例如我造了一个人形机器人,如果他除了外表长得像人一样,而其他什么也不会做的话,我们并不能将其称之为有智能。

但是我们想一想,如果他可以交流,你问他问题他也不会答非所问,他能看见你并且和你拥抱,他感受到冷了会自己加衣,那么情况就完全不一样了,这时候我们就可以说这样的机器人他“可能”拥有了智能。

通过上面这个例子,我们似乎对什么是“像人一样行动” 有了一个初步概念。

如果严格地说,要想让一个机器能在“像人一样行动”这个维度具有智能,他需要的能力包括:自然语言处理,知识表示,自动推理,机器学习,计算机视觉以及机器人学。

自然语言处理说的是对语言处理的能力,基本能力便是能成功的用英语进行交流;

知识表示是指存储它知道的或者听到的信息的能力;

自动推理说的是运用存储的信息来回答问题并作出推出新结论的能力;

机器学习则指的是获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的能力;

计算机视觉和机器人学是指感知物体和操作移动对象的能力。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

说了这么多理论的东西,我们来举一个具体的例子。

我们先设定一种情况:

假设在你面前站着一个黑衣人,他浑身都裹着一层布,所以你并不知道他是真正的人还是什么东西。 就在这时你问了他一个问题:什么事情iPad能做,但是iPhone却不能做?他思考片刻回答道:焖住方便面桶。说完,默默地拿起iPad就把你刚刚泡上的方便面用iPad盖上了。


这个时候再问你,你觉得他是一个真实的人类还是一种机器?


于是你陷入了沉思,这货不论是从问题回答的正确性以及行为动作而言根本看不出有什么漏洞,而且竟然还会机智地说段子,然后你承认你无法判断。

例子讲完了,其实刚才那个过程就是所谓的 图灵测试 的生动版。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

(阿兰·图灵像)

由图灵提出的图灵测试正是旨在为智能提供一个令人满意的可操作的定义,而且在这个概念提出的 60 多年后这个设计仍然适合对智能的判断,这一点十分令人称赞。

图灵测试的测试内容,即是一个人(代号C)使用测试对象皆理解的语言去询问两个他不能看见的对象任意一串问题,对象为:一个是正常思维的人(代号B)、一个是机器(代号A),如果经过若干询问以后,C不能得出实质的区别来分辨A与B的不同,则此机器A通过图灵测试。

但是图灵测试也并不是最佳的测试方法,因为这种测试方法只关注外在表现,并没有把真正的关注点放在产生这种思维的原理上,所以即使是通过了图灵测试的机器也许并不是真正的具有了智能,蒙混过关的情况也很有可能发生。

你一定还有印象,2014年俄罗斯团队宣称开发出了一台首次通过图灵测试人工智能的机器人,这台名为Eugene Goostman的计算机被描述为“把自己伪装成十三岁的男孩,骗过了超过 30% 的测试人员”。其实想让计算机蒙混过关并不复杂,这里还有10个伎俩,有兴趣的话可以看看。后来英国皇家学会将图灵的标准具体化:在一系列时长为 5 分钟的键盘对话中,只要计算机被误认为是人类的比例超过30%,那么这台计算机就被认为通过了图灵测试。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

一年一度的Loebner Prize比赛便以此标准,这个大赛也早就出现了“通过测试”的机器人,比如2011年的 Cleverbot 程序达到59%的通过率。但是,这个名为Eugene Goostman机器人就是单纯地为了通过这个 5 分钟测试而设计的,编写者还颇有心机地把它设定成一个 13 岁的非英语母语的小孩,以便在很多问题无法回答或者出现错误的时候,让裁判误以为这是因为他年龄小而产生的语无伦次。

也就是说,Goostman既不是“第一个通过测试”的程序,也不是一台人工智能机器人。

另一个经常出现的谬误是我们经常听“这个机器人的智力已经接近多少岁的儿童”这样的报道。

百度李彦宏曾说“百度内部有个‘百度大脑’的项目,用技术模拟人脑思维,现在大约已经相当于2 - 3岁孩子的智力水平。未来十几二十年,这样的大脑或许比人脑还要聪明。”而 微软小冰 被定义为“一个 17 岁的萌妹子”。

瑞典的科学家在 2012 年开发了一个据称智商达到150的人工智能程序。但是遗憾的是,这些话大多数只是这些科技公司为了营销而说的一些话。人类的大脑能学习几乎所有东西,比如两三岁的孩子已经能够掌握至少一门的语言、能从极其复杂的环境中一眼认出父母,不管他们的站姿和表情。但这与人工智能相距甚远,更不用说搞清楚“智力”这种玄乎的东西了。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

3、合理地思考

虽然我们人类的智能是伟大的,但是尽管如此,我们仍然需要面对一个十分严酷的结论,我们人类并不是完美的。而在追求完美的路上,我们遇到了人工智能,所以我们是将人工智能向人的方向发展还是向更加完美、在一定程度上已经脱离了人这个本体的方向来发展,这也是我们如何定义人工智能的一个重要议题。

所以在讨论了“像人一样”的话题后,我们要开始谈论“合理地”这个话题了。

上面已经对什么是合理进行了说明,即如果一个系统可以基于已知条件做正确的事情那么它就是合理的。

希腊的哲学家亚里士多德是首先识图严格定义“正确思考”的人之一,他将其定义为不可反驳的推理过程。他提出的三段论为在给定正确前提时总产生正确结论的论证结构提出了模式,这就是三段论推理模式。三段论推理说的是这样一种简单判断推理,它包含两个直言命题构成的前提,和一个直言命题构成的结论。一个正确的三段论有且仅有三个词项,其中联系大小前提的词项叫中项,在前提中出现两次;出现在大前提中,又在结论中做谓项的词项叫大项;出现在小前提中,又在结论中做主项的词项叫小项。

概念有点复杂,我们举一个例子:牛有四条腿,奶牛是牛,所以奶牛有四条腿,这便是三段论。

这些先贤认为这些思维法则正是支配头脑运行的基本法则,并且开创了被称为逻辑学的领域,而且19世纪的逻辑学家门为了世上各种对象以及对象之间关系的陈述制订了一种精确的表示法。

从表面上看这种表示法似乎距离我们所说的人工智能又近了一步,但是遗憾的是,这种方法却存在着很大的两处缺陷:

一个就是由于这种表示法为了精确表达各种对象之间的关系所以必须做到事无巨细,但是这就导致了,有些稍微复杂的问题,他们之间的逻辑表示可能要几百上千条,但是电脑的运行资源是有限的,可能在求解一个只有几百条事实的问题就已经耗尽任何计算机的资源。

其实人工智能自1947年图灵在伦敦数学学会真正提出来之后的将近70年的时间里,人工智能经历了很长一段的瓶颈期,直到现在才又重新蓬勃发展起来,逻辑学的这种思路正是一个重要原因。

也就是,人们总是希望创造或者用规则复现出一种合理推理的“规则”,然后让计算机照着这种规则来运行,但是问题就在这里,一方面这种规则的制定并不是一件容易的事情,他需要的人力以及智力都远远超乎想象,况且世界上那么多需要“列举”的规则,能列举的完吗。 另一方面即使列举出了这些规则,但是要想将这些规则描述为计算机程序,庞大的计算量也并不是计算机所能承载的,更况且是几十年前的计算机,所以这也是一大缺陷。

另一个大的缺陷就是,在我们这个世界上,并不是所有的关系都是确定的,而且真正的事实是,大部分的关系都不能真正用逻辑来表示。

抛一枚硬币,结果是正面朝上还是反面朝上;收到一封邮件是不是垃圾邮件;今天会下雪吗。凡此种种,我们都不能用一个“百分之百”的知识来表示,这也是人工智能瓶颈期的重要制约因素,这也是为什么随着机器学习等优秀的处理概率事件的方法面市后人工智能得到飞速发展的一个重要原因。

4、合理地行动

为了说明行动这个具有行为要素的概念,我们需要引入一个叫Agent的概念,它是一种能够行动的东西。我们平时所说的机器人只是Agent的一种表现形式,会写新闻稿的那段程序也是Agent的一种表现形式。所以合理Agent是一个为了实现最佳结果,或者当存在不确定性时,为了实现最佳期望结果而行动的Agent。所以总体来看,“合理的行动”相对于“像人一样”避免了人类思维和行动上的缺陷,也避免了“合理地思考”的局限性,故合理Agent可以看做是对人工智能最好的一种逼近。

在实现人工智能“思维法则”的途径中,一个很重要的部分就是正确地推理,而且做出正确的推理也是合理Agent的重要组成部分——

因为合理行动的一种方法就是逻辑地推理出给定行动将实现其目标的结论,然后遵照这个结论进行行动。

但是在这里需要注意的一点是,正确的推理只能是合理性的一部分,因为有些事情是合理的,但是它并不需要推理,正确推理是合理性的充分不必要条件。

例如手被火苗烫了一下,缩手就是一种反射行为,并且这也是一种合理行动,但是我们不能说这里面涉及了推理,而且这种行为比仔细考虑后采取的较慢的行为更成功。

那我们再用这种思路看一下图灵测试,我们可以发现,图灵测试中那个“黑衣人”所需要的所有技能也同样属于一个Agent合理地行动范畴,所以这个维度与图灵测试并不矛盾。

合理Agent这个维度的定义与以上三种维度定义主要有两大优点:

第一点是合理地行动比合理地思考具有更加普遍的适用性。

因为它允许“可能性”这种机制的存在,当我们遇到一个没有 “百分之百”的决策的时候,我们可以通过先验概率和后验概率,得出一个实现最佳期望结果的决策。 这样,我们世界中基本上所有的事情就都可以通过这种方法而使Agent有所行动了。

第二点就是这种途径比“像人一样”,即基于人类行为或者人类思维的途径更经得起科学发展的检验。

合理性的标准在数学上定义十分明确而且完全通用,所以这种情况就完全避免了人的主观性,这种合理性是可以通过科学方法验证能够实现的,“能被客观证明”这种特质也是“合理地行动”这个维度定义的一大优点。

人工智能怎么理解问题?比如,它知道可以用iPad压住一碗泡面

5、小结   

虽然第四种维度的定义普遍被认为是对人工智能的一种很好的逼近,但是如果把一个合理Agent放到一个十分复杂的环境中,由于环境参数巨大,决策难度和复杂度都超过了计算的限度。

这个时候,如果我们还想要实现完美的合理化,即总做正确的事情,恐怕这并不可行。不过我相信,随着算法的简化以及计算能力的提升,我们距离真正实现合理Agent人工智能的目标也一定会越来越近的。

随意打赏

提交建议
微信扫一扫,分享给好友吧。