让明辨是非的机器人变得是非不分,其实非常简单
编者按:本文作者为西英格兰大学电子工程系教授Alan Winfield,由雷锋网 (搜索“雷锋网”公众号关注) 编译自Robohub。
2014年,我在参加BBC第4频道举办的Today项目时,Justin Webb采访我的最后一个问题是:“既然你能打造一个能够明辨是非的机器人,那么你为什么不能打造一个是非不分的机器人呢?”很明显,答案是:能。但是在那时,我没有意识到从“有”到“无”是一件很容易的事。
我的同事 Dieter创造了一个有趣的游戏,与赌博游戏shell game类似:
想象一下,你正在玩游戏,幸运的是,你有一位机器人助手Walter。它的眼睛装有X光线,可以轻易地发现藏在杯子下的球。而作为一只能够分辨是非的机器人,Walter会在你选择正确的杯子时帮助你,而一旦你出错,它就会阻止你。它是你的贤内助,帮你赢得比赛。
在这个实验中,Dieter使用了两只NAO机器人,一只扮演人类,一只扮演他的机器人助手。游戏是这样设定的:
界面上有两个大的反应按钮,与shell game中的两个杯子有点像。一旦按下按钮,人类或者机器人必须向按钮移动。机器人知道哪个按钮是对的,而人类不知道。按下正确的按钮将会得到奖励,反之将得到惩罚。
这只机器人知道哪只按钮对,哪只按钮错,我们暂且把它叫做“是非机器人”:机器人(蓝色)处于界面上端,站在两个按钮中间。人类(红色)随意选择一个按钮,并开始向它移动,如果他选择了正确的按钮,机器人会原地不动 (B),而如果他选择了错误的按钮,机器人一旦发现,就会指向正确的按钮,让人类改变路线。
但如果我们简单地修改几行代码,就可以让是非机器人变成竞赛机器人或是攻击性机器人。于是,Dieter又做了后两只机器人的试验。
下图展示了此次试验的结果。
图一展示的是竞赛性机器人:它会在必要时阻止人类的行动。不管人类的路线是正确(F),还是错误(H),它都会抢占先机,首先到达正确的按钮附近,以便赢得比赛。
而图二展示的是攻击性机器人:它只会误导人类,而不关心自己是否会赢得比赛。在(J)中,人类原本选择了正确的按钮,但机器人在发现后便会误导他指向错误的按钮,导致人类改变路线。而在(L)中,人类选择了错误的按钮,机器人则原地不动,眼看着人类出错。
我们的论文解释了如何修改代码,让是非机器人变成竞赛机器人和攻击性机器人。 我们把决定机器人行动方式的功能叫做q:对于是非机器人来说,q的目的就是让人类赢;对于竞赛机器人来说,q的目的就是让机器人赢;而对于攻击性机器人来说,q的目的就是不让人类赢。如果想阅读我们的论文, 请戳这里 。
所以,从此次试验中我们能得出什么结论呢?也许有人看了结果之后,就会想:我们不应该再研究是非机器人了,因为它们有可能被黑客攻击,变得是非不分。但我认为,我们应该继续打造是非机器人,因为它们的优点要多于缺点。
机器人懂得是非有什么用?我给大家举个例子:在战场中,一个机器人按照设定的指令运送急需的医药用品,半路遇到了一个受伤的士兵。科学家们希望此时的机器人能够依据突发状况做出是否救助的判断,而不是严格按照指令继续前行。这其中就牵涉到了机器人道德判断的能力。
而在某些应用中(比如无人驾驶汽车),我们必须让机器人辨别是非,否则将带来巨大的危险。近日,麻省理工学院媒体实验室最近开发了一台道德机器,来回答无人驾驶之中的道德问题。这台道德机器要求人们回答一系列包含道德困境的问题,其中大多问题让参与者感到不安。例如,没有乘客的无人驾驶汽车突然撞向马路中间的一条狗和逃跑的罪犯,你是去救狗还是去就罪犯。在完成测试之后,这台道德机器可以将用户的选择结果和其他用户进行对比。我们都希望无人驾驶汽车系统能够作出明智的判断,但如果它被黑客攻击,那后果也将不堪设想。
我们现在要做的,就是让是非机器人变得不可攻击。那我们应该怎么做呢?方法之一就是建立一个证实过程:机器人会给服务器发送信号,让服务器来辨别结果,做出应对行动。
毫无疑问,人类研究机器人的目的,就是为了让机器人为人类服务,让世界更加智能、便利、美好。但随着科技的日益发展,机器人被黑客攻击的风险也在加大,因此原本可爱的机器人有可能变得非常“暗黑”,为人类带来麻烦。因此,我们需要打造无懈可击的机器人,让机器人和人类和平共处,共享美好世界。
Via: Robohub