机器人聪不聪明,得看他/她的HIU高不高?

亿欧网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
机器人聪不聪明,得看他/她的HIU高不高?

当我们购买节能灯泡时,会按灯泡的功率来选择:3W,5W,11W……;当我们购买电水壶时,会按容量来选择:1.2升、1.5升、1.7升……。也许在20年后,你会面临另一个场景:当你走进一家 机器人 商店,比较各种机器人型号时,你最感兴趣的指标可能是他们的 HIU 值,选4.6的,12.4的,还是24.0的?

HIU?那是什么鬼?

人工智能 概念诞生之日起,关于人工智能的讨论甚至争论从未停止。随着近几年该领域的快速发展,争论也愈演愈烈。

争论无外乎两种观点:一是认为人工智能是可控的,只是人类的一种工具。代表人物有著名的机器人制造专家罗德尼·布鲁克斯;另一种观点则认为人工智能可能最终会导致人类毁灭。像埃隆·马斯克和史蒂芬·霍金则是这种观点的支持者。

在讨论这一问题时,我们可能忽略了一个问题:我们目前没有任何有效的方法来测量机器人的效能。如果没有有效的测量方法,我们又怎么知道人工智能会是一个真正的威胁呢?

人们曾经发明智商评测体系来衡量个体的智力水平,尽管这种测试存在很大的缺陷,结果也并非精确,但为区分人类智力水平提供了一种方法和思路。

同理,人工智能是否也应该具有一套评测体系?人类的智商评测体系是否适合人工智能?如果不适合,那又该用什么方法?目前有很多科学家和未来学家正在寻求人工智能的效能测量方法,如美国未来学家Thomas Frey就提出了HIU(人类智能单位,Human Intelligence Unit,简称HIU)的概念。

据Thomas Frey说,他提议以“单个人类智能单位(1 HIU)”为基础,为人工智能创造一个测量标准。当然,他认为这只是一个粗略的尝试。

受到瓦特用马力来测量蒸汽机的动力的启发,Thomas Frey提出了HIU的概念。由于马力是一种力的一维测量,而人类智能是一个复杂的、多维的个体属性的结合,包括了思考、推理、毅力、动机、情感价值观、记忆、恐惧和脆弱,这也决定了智力量化会发展成一个“无穷+1”问题,因为这里面有太多的伦理和情感因素,而这些是无法用简单的数字就能解决的。

未来在选择机器人时,是需要简单服从指令的工具就好,还是需要一个拥有全面技能的伙伴,HIU评级将成为一个高价值的参考工具,用于帮助你决定选择哪种型号。

量化智能

毋庸置疑,衡量一匹马所产生的力量要远比量化复杂的人类智慧要简单的多。

那么,对于人工智能,我们到底要测量什么?执行效率,计算速度,还是计算技巧?像这样的测量在比较中会有什么价值呢?例如,怎样去比较一个洗衣机器人、一辆自动驾驶汽车和人工智能Watson?

在神经生理学中,突触是指神经元之间或神经元与效应器细胞之间相互接触、并借以传递信息的部位。Thomas Frey认为通过对一段时间内的突触传递进行比较,可以创造一种更好的方法来评估一个人对一个项目的贡献。

据神经学家Astra Bryant所说,普通大脑的神经信号传递大约每秒860亿次到17.2万亿次。一个处于深度冥想状态的人神经信号传递数量最低,而一个经历了完全顿悟的人神经信号传递数量最高。

HIU评估系统以一个人在一小时内做出的决定和计算的平均数为基础,尽管存在一些优点,但这种对大脑的评估方式和对马力的评估差不多,因为评估过程失去了对激情、独创性和想象力等无形价值的测量。

人类自身就存在很多的缺陷和问题,而我们却希望创造出的每个人工智能是完美的,能够独立生存的。这就引出了很多哲学问题:

1)有缺陷的人类如何制造出无缺陷的人工智能?

2)制造所谓的“完美”人工智能是最理想的吗?

3)人工智能会成为弥补人类不足的最佳方式吗?

4)人工智能最终会代替我们对其它人的需要吗?

按钮盒理论

在人工智能圈中,经常讨论的一个理论是按钮盒理论(The Button Box Theory)。如果一台电脑被设定为在其每完成一次任务后,按一个按钮让其“感觉得到奖励”,最终这台电脑会寻找更有效的方式来获得奖励。

首先,这台电脑会寻找一些方法来规避完成任务的需要,并找出自动按下按钮的方法。最终,它会寻找方法来消除对这个按扭的威胁,包括那些有权拔掉电源的程序员。由于不能与计算机讲道理,人们相信机器最终会崛起,并与人类对抗。

这一场景是很多科幻电影情节的关键。在这些情节里,智能机器在未来与人类作战。然而,关于这些机器将会以某种方式学会先发制人的理念,充满了假设缺陷,而且他们的利益也会使他们对世界上任何其它的利益视而不见。

大胆的预测

实际上,社会的每一次进步都集中在获得更多控制权的理念之上。

我们都明白突然遭受坏运气时是什么感觉,这种感觉我们都不喜欢。我们争取控制是对生命的最糟糕时刻的应对反应。如果我们能有更多的控制,就不会有什么坏事发生在我们身上。

人工智能有望解决这一困境。我们不仅为每一种危险都创造了规避机制,我们还修正每一个问题,并实现大规模的自立。

最终我们成为了独立的有机体,拥有着超高的智力水平,以及我们无法想象的能力,并融入到我们周围的环境。

然而,所有的场景也正是从这里开始崩塌。

自立将会导致孤立,我们对彼此的需要将会消失。没有了需要和依赖,就不会有进步。没有了修正每一个不足的驱动力,我们的目标感就会开始消失。

如果智力得不到应用,再聪明也没有意义。就像一个永远不会使用的永动机,其存在就没有了什么目的。

正因为如此,Thomas Frey认为很容易做出预测:所有的人工智能最终都会以失败告终。它要么因其缺陷失败,要么因其过于完美而失败。无论如何,随着时间的推迟,它终会失败。

然而,仅仅因为人工智能最终会失败,并不意味着我们不应该追求这些目标。因为在追求这条路的旅程上,我们会创造出许多非常有价值的应用。

狭义的人工智能应用会以无数的方式兴起,即使是广义的人工智能,也会在未来几十年创造无法估量的价值。但认为解决所有的问题是一件好事,也是一种妄想。

未来,交给未来去解决

有时,我们美好的意图会如海市蜃楼一般自己出现,帮助指引我们到一个我们从未想过要去的领域。

尽管Thomas Frey提出了一种新的测量单位HIU。但随着分析的展开,我们会发现人类智能和人工智能处于不同的层面……或者,他们就是处于同一层面?

没有依赖,就不会有人类智能。可能会有别的什么,但不会是人类。

不完美恰恰是一种奇怪的完美。

衡量人工智能的潜在危险时,要善用它,就如利用它做坏事一样危险。

我们最终会不会有某种形式的HIU,或我们是否必须要知道更多才能回答这个问题?就像一列尚未离开车站的火车一样,这件事情还要许久才会发生。


亿欧智库与阿里巴巴研究院合作,正在进行中国人工智能投资相关研究,我们邀请关注和投资AI的投资人参与到本次研究当中。下方是研究中关于投资人的调查问卷,欢迎您进行填答。也欢迎您通过邮件与我们联系,交流AI投资的经验与观点:zk@iyiou.com。

问卷链接: 亿欧智库2017中国人工智能投资人调查问卷


随意打赏

提交建议
微信扫一扫,分享给好友吧。