面对道德困境自动驾驶汽车该如何应对?谷歌也不知道
自动驾驶汽车的成熟之路上必然伴随各种道德问题
凤凰科技讯 北京时间8月29日消息,据外媒报道,近日,谷歌工程总监科兹威尔在奇点大学发表了一场演讲,在谈到自动驾驶 汽车 面对“道德困境”将如何做选择时,他表示现在这个问题依然处于无解状态。
在日常生活中,我们时常会遇到道德困境,人们必须做出两难选择,机器也一样。最近,Uber宣布在匹兹堡推出自动驾驶服务,这非常令人兴奋。不过,如果自动驾驶汽车面临一种道德困境,它将如何选择,设计者是否已经为它们设计好了应对方式呢?
举例来说,如果自动驾驶汽车快要撞上另一辆汽车,那车里坐着三个人。它可以快速转弯闪开,但拯救车上三个人的后果是撞上人行道上的三个孩子,这时它会作何选择?
这一典型的例子在自动驾驶汽车发展初期就被提出来了,而科兹威尔对这一问题的回答可以总结为:我们不知道。
科兹威尔认为,原本的“机器人不可杀人”这一定律过于简单了,它并没有考虑到一些特殊情况。举例来说,如果有人将要炸毁一幢建筑物或一个城市,那么机器人除掉他们就是符合道德的。
就自动驾驶汽车来说,科兹威尔认为我们有必要对其进行“道德设计”。在演讲中,他提到了著名的机器人三原则,即:
1:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.
2:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
3:机器人必须保护自己,除非这种保护与以上两条相矛盾。
那么,对自动驾驶汽车来说,可以挽救某人的生命却没有这样做,是否可以等同于杀戮呢?
科兹威尔承认,在无人驾驶汽车的道德品性方面,他现在完全没有现成的答案。“我需要花更多时间进行思考,此前我没有进行过相关分析。”科兹威尔说道。
关于这一道德难题,谷歌首席工程师安德鲁认为,当无人驾驶汽车面临两难选择时,“答案差不多总是‘踩刹车’。”
他承认,这可能并不是完全正确的答案。但如果连踩刹车都不是一种正确的应对,那自动驾驶汽车面临的就是极端情形了。
不过,这个世界上不就是充满着极端情形吗?谷歌这种模棱两可的回答实在不能令人满意。
最近,麻省理工学院的研究人员创建了一个名为道德机器(Moral Machine)的调查项目。除了想知道面对此种情景人们会作何选择,此举还想获知人们希望无人驾驶汽车在面临道德困境时如何选择。
这项调查看起来相当明智,但最终结果如何我们实在无法想象。
对于该问题,Uber选择不予置评,也许它们对自动驾驶汽车的“道德困境”问题也暂时无解。(编译/吕佳辉)
想看更多国外有意思的、新奇的科技新闻?那就来扫码关注外言社(微信号:ifengwys)的官方微信吧。