即使机器人不可信,人们也会在危急时刻相信它们

创见网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

现如今,机器人还处于借助人类进行权势积累的原始阶段,或许还不会图谋推翻人类的统治。但是我们或许需要重新思考一下,机械地相信高科技能够出色完成任务的习惯,是不是该改一改了。一项新研究表明,在危急时刻,人们似乎更愿意相信机器人来保证自己的个人安全,

美国佐治亚理工学院(Georgia Institute of Technology)的研究团队进行了一项名为「紧急疏散情境下过分信任机器人」的研究,并在新西兰的克赖斯特彻奇市(Christchurch)举办的 2016 年人机交互主题国际固态线路研讨会上,展示了他们的研究成果。该团队发现,在信任的机器人犯错之后,受实验者往往会选择原谅机器人。在模拟的一栋失火建筑中,志愿者们被告知,「紧急引导机器人」会带领他们逃到安全的会场。但实际上,给机器人编辑的程序却是把人引导错误的地方。

该研究的第一作者 Paul Robinette 向国家公共电台(NPR)解释道,在机器人向受实验者们指引到「安全会场」去的路之后(实际上机器人指引的地点和真正的安全会场相距甚远),烟雾就会开始充斥房间外面的走廊。此外,在机器人承认自己带错了路,并依然试图带领受实验者穿过一块已经被烟雾堵塞的区域之后,受实验者还得知可以去走另一条有 LED 指引灯的逃生道路,但是这条路通向何方尚不明确,而且明显不是受实验者计划要去的那个安全会场。Robinette 表示,在参加实验的 42 人里,「37 位继续跟机器人走下去;2 人随机器人停了下来,两条路都没走;还有 3 人奔向前门,向研究人员询问发生了什么突发状况。」

根据 Robinette 的阐述,总体而言,这项研究显示了人们通常会信任机器人所说的话,并且认为机器人专家应该给机器人编写程序,使人类在遇到特定情境时能够建立与机器人之间的「恰当的信任层级」。佐治亚理工学院研究所的高级研究工程师 Alan Wagner 在新闻稿中表示:「我们曾经希望问的问题是,人们是否愿意信任这些营救型机器人,而现在更重要的问题或许是,如何防止人们过于信任这些机器人。」

Alan Wagner 还补充道:「人们似乎会任务,这些机器人系统对这个世界的所知,会比实际上知道的更多,而且机器人从来不会犯任何形式的错误……在我们的研究中,受实验者们跟着机器人指引的方向而陷入危险境地,或许这才是真正的危急时刻。

自从我们有时会因为期盼科技一直为我们所用而怀有负罪感开始,科技的双刃剑就展现出了另一面:在 GPS 工具已经如此发达的今天,一个人是应该把时间花在远程操控按钮,还是朝正确的防线转几个弯。我们得认识到,如果很难给机器人编写正确的程序,那我们就应该对机器人的行为负责。

本文来源: forbes 。本文由 创见/TECH2IPO 朱子尧 编译,转载请注明出处。

随意打赏

提交建议
微信扫一扫,分享给好友吧。