无人驾驶汽车也遇到了哈佛公开课《公正》中的道德难题
随着自动驾驶汽车从虚构小说中走了出来,一个最初的哲学问题已演变为世界各地技术专家之间激烈争论的焦点。但对于亲身参与制造自动驾驶汽车的人来说,这个话题却有些无聊。
研究人员一般用“有轨电车难题”来代表对“作为”与“不作为”之间道德区别的哲学思考。其中一个典型的例子就是一辆冲向五位大意行人的失控矿车(还记得那门叫做《Justice?》的哈佛公开课吗?)。在来不及提醒他们的情况下,你唯一的选择就是拨动开关转换到另一条轨道上,因为这条轨道上只有一位行人。这样你就可以牺牲一人来挽救另外五人。在这种情况下,你会怎样做?
不管做出怎样的选择,你都会面临同样的问题——接受道德上的审判。如果你把身边的人推到铁轨上逼停矿山车,又会怎样?要是那五位行人都是年逾80的老人,而另一位行人的年龄不到 20岁呢?要是那五人其实是五百只小猫呢?
这个时候,如果你驾驶不是矿山车,而是一辆失控的自动驾驶车呢?如果你是一位程序员,只能在关键时刻把你的选择以代码的形式输入系统里呢?如果你无须在五位行人和一位行人之间做出选择,而必须在车辆的唯一乘客与五位行人之间做出选择呢?
这些问题似乎反映了人们对自动驾驶汽车的恐惧:我们真的要把生命交给不一定遵守伦理道德标准的加州程序员吗?说到底,如果你知道一辆车遵循的逻辑是宁愿急转弯撞上一颗树也要保护那些过马路不看车的行人,你还会买它吗?
最近在《科学》杂志上发表的一篇文章认为,遵循道德准则的车辆也一样不受欢迎: 一项投票显示,绝大多数人并不支持这种自我牺牲,因此他们不会购买自动驾驶汽车。当然,从长远来看,技术不过关的人类驾驶员还会导致更多死亡。
X是一家引领全自动驾驶汽车开发的Google兄弟公司,对于该公司的工程师来说,这个问题却不怎么有趣。该项目首席工程师Andrew Chatham还开玩笑说:
“比起无人驾驶,我们还是更喜欢谈论有轨电车的难题”。
“有一点必须提醒人们,我们还从没有遇到过这些问题。在所有试验中,我们都不需要在婴儿推车与祖母之间做出选择。即使遇到了这样的场景,这也通常意味着你在几秒钟前就出错了。对于一位具有道德感的软件工程师来说,如果我想要拯救生命,那么我就应该阻止这种情况发生,因为一旦发生就证明我们的东西搞砸了。“
但Andrew Chatham最后还是补充道:
“这个问题比较棘手,但普遍的做法基本上都是 ‘踩刹车’。人们通常对出现在眼前的情况更加自信,因为系统的运行方式就是这样,并且踩刹车的动作往往比转弯撞向任何东西精确得多。所以这个问题很难得到完美的解决方案。"
也就是说,即使自动驾驶汽车确实碰到了前所未有的情况(即必须在两起意外死亡事故之间做出选择),即使刹车失灵了,即使系统能够及时做出符合道德标准的决策(另一位项目工程师Nathaniel Fairfield开玩笑说,真正的问题是“我应该怎么做呢...该死!来不及了”),人们仍然没法在应该采取的措施上达成一致。随科学杂志那篇文章一同公开的“公共审判方式”总是有办法让用户们陷入他们自己的道德困境,而大部分研究结果表明,人们的观点总是变幻无常的。所以最好还是先别把这些想法编入无人驾驶汽车里。