该翻篇了!“电车难题”不应成为自动驾驶技术发展的紧箍咒
雷锋网 (公众号:雷锋网) 按:本文编译自 The Atlantic ,原文标题为 Enough With the Trolley Problem 。
说起自动驾驶,许多人就会不自觉的联想到上世纪 70 年代诞生的经典电车难题,这个伦理学领域最为知名的思想实验正在成为整个行业不断前进的绊脚石。因此,现在我们是不是该向前看,把这个问题彻底翻篇,不要再用这一道德问题来拷问自动驾驶汽车了?
所谓的电车难题内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?
如果以电车难题为基础来一次发散思维,你确实能得到大量难以解答的问题。比如,自动驾驶汽车应该为了保行人而放弃驾驶员吗?那么事故当头,老人和年轻人谁更应该做出牺牲?如果车辆能获知附近驾驶员的信息,在车辆失控前它是否应该根据这些信息进行选择性的碰撞?
事实上,电车难题在自动驾驶圈已经是个绕不开的话题,麻省理工的工程师甚至专门众筹了一个“道德机器”,旨在编写一个意见目录,以解决未来机器人在特定情况下该作何反应的问题。
不过,几十年来都没有答案的电车难题其实本身就有个漏洞。在为机器人设定道德条件时这个思想实验根本不及格,如果硬要把它套进这一领域,特别是在制定政策、引导设计或回答一些人们关心的问题时,肯定会导致一些有关机器伦理的危险且不完整的结论。
别让功利主义蒙了眼
哲学家 Judith Jarvis Thomson 于 1976 年正式提出“电车难题”,不过类似的思考 1967 年就诞生了,只是当时另一位哲学家 Philippa Foot 探讨的是人的打算与他们预见的不同。
当时 Foot 拿堕胎打了一个比方,如果产妇难产,是摘掉产妇的子宫放手一搏来救孩子(属于“预见”的范畴,成了皆大欢喜,失败了就一尸两命),还是直接结束孩子的生命(属于“打算”的范畴)来救产妇一命呢?同样都是面对产妇难产,不同的处理方式会带来不同的道德结论。
Foot 当时还引申出了许多类似的情况,其中之一就与有轨电车司机有关。另外一个则属于法官面对的难题,她设想如果法官不判处一位无辜群众的死刑,暴徒就威胁要冲击法庭。第二个设想就与电车难题类似,法官要做出选择,到底是为了正义牺牲多数人的生命,还是为了多数人的利益牺牲无辜者。
经过一番研究,Foot 在论文中表示:“大多数选择牺牲扳道员来拯救更多生命的人,如果碰上法官歪曲黑白剥夺无辜者生命时也会感到震惊。”
于是,她总结称, 一个人做什么和一个人允许什么之间是有差别的,因此避免伤害和带来帮助之间的差别非常重要。
Foot 的论文虽然简短,但给现在的读者提供了一个全新的视角来看待自动驾驶汽车遇到的道德困境,而不是钻进“电车难题”的牛角尖里爬不出来。
从某种程度上来说,这是因为 Foot 遵循了大家所熟知的美德伦理(来自古希腊亚里士多德)。在美德伦理学家看来,一个人的道德水平甚至可以和生命划等号。
不过, 在讨论自动驾驶汽车时,大多数人会自动忽略美德伦理,他们更重视自动驾驶汽车带来的最终结果。在道德哲学里,这样的方式是与美德伦理截然不同的,它的学名叫做结果论,而结果论中有个著名的分支——功利主义。 也就是说,秉承这种理论的人在做事前会首先考虑自己行为可能导致的后果。
眼下,功利主义已经成了自动驾驶汽车修辞学中根深蒂固的思想,而在宣传时大家总是会提到自动驾驶汽车带来的全方位安全防护。
鉴于美国 2016 年因车祸丧生的人高达 3.7 万名且有 94% 都是司机犯错,因此用可靠的机器人替换容易犯错的人类成了一件有百利而无一害的大好事。
不过问题是,只关注结果会让盲目的人们忘记原来自动驾驶汽车也有缺点。就像 Foot 提出的电车司机与法官的案例在道德上不能类比一样, 自动驾驶汽车在相同情况下可能也会造成不同的道德、法律和公民后果。
电车难题中有些假设很难成立
最近,Uber 的一辆自动驾驶测试车就在亚利桑那州坦佩市撞死了 49 岁的妇女 Elaine Hertzberg,当时她正推着自行车横跨马路。在笔者分析了一番有关这次事故的法律内涵后,有些读者对我报以功利主义者的嘲讽。不过他们不知道的是,美国 2015 年因为横穿马路而遭遇车祸身亡的人数高达 5376 人,而新闻可不会对这些事故进行逐一报道。
很快,自动驾驶汽车就能减少甚至把行人死亡的情况降为零。如果把这种想法套进电车难题,你就会发现轨道变成了时间,而非空间。 虽然牺牲一边轨道上的那个人依旧是个悲剧,但如果它的代价是拯救数千人,恐怕也会变得合乎情理。
问题在于,这样的立场需要假定 Hertzberg 的死与其他不幸的行人一样。从统计学上来说,这能说得过去,但从道德上看,恐怕就不是一回事了。
未来,如果不出意外,自动驾驶汽车肯定能避免坦普市的悲剧,毕竟传感器和计算机比人类反应要快得多。随着 Uber 自动驾驶测试车致命事故的细节逐渐浮出水面,许多专家称这起事故完全可以避免。
Waymo CEO 还专门出面补刀称自家技术完全可以避免事故的发生,毕竟它们的司机每 5600 英里才需要“碰”下方向盘,而 Uber 的司机可要忙得多(每 13 英里)。
在亚利桑那的道路上,Waymo 自动驾驶汽车与 Uber 自动驾驶汽车的差别比无人和有人驾驶汽车之间的差别更为重要。
不过,为了吸引更多公司来亚利桑那研究、测试和部署自动驾驶车辆,州长 Doug Ducey“网开一面”,在没有严格监管的情况下就放它们上路了。
解决这些问题可不能靠揣摩电车难题的场景。如果放在 Uber 这起致死事故中,就意味着测试车第一时间看到了 Hertzberg,这时它才能相应做出选择,决定救路人还是保司机。
此外,要进入电车难题的讨论范围,还要假设自动驾驶汽车足够可靠且安全功能有保证,即在电车难题中扳道的杠杆没有因为锈蚀而动弹不得。不过, Uber 这次事故以上两个假设都不成立。
其实 Foot 已经预料到了场景中上下文缺失的问题。 “在现实中,”她写道。“你很难说那位孤零零被绑在铁道上的人就必死无疑。也许他能找到个立足点并在电车通过前救自己一命呢。”
想要一个个探索完这些无限的可能,一种方式就是一遍遍的实验并从公众的反应中搜集模式,这也是“道德机器”的方法,就像现在最火爆的机器学习一样,一个庞大的数据集必不可少。不过,另一种方式则是 在最合适的道德背景下考虑特定的问题。
Foot 还提供了一个典型例子,相比电车难题,它与 Uber 的致命车祸有更多共同点。Foot 将场景搬到了医院,假设医院有五个病人,他们的疾病只有一种特殊的气体能治好,不过在使用时这种气体释放的毒物却飞进了旁边的病房,而该病房中的病人都无法移动。
在这样的情况下,其效果确实很像经典的电车难题,但在许多结论上又不是那么明显。这不仅是因为目的和可预见的效果有所不同,还因为避免造成伤害的道德欲望工作原理不同。
在电车难题中,驾驶员根本别无选择,无论他走出哪一步,都会带来惨痛的后果,而在医院这个例子中,医生则面临一个冲突的选择,他要么施以援手,要么祸害其他病人。
事实上, Uber 测试车面对的情况更加棘手,因为各方(Uber、安全司机和政府)对车辆的状态都没有一个准确的认识。 这让 Uber 致命事故的道德情景与未来车辆伤亡撇清了关系,它让人更多的联想到政府监管、公司披露和交通政策。
别忽视了道德的复杂性
如果 Uber 这起事故成了道德哲学中能同时满足技术人员、市民和政策制定者需求的先例,那么这场灾难可能会成为道德运气的代表。这里还要举一个例子,假设一名喝醉的男子晚上冒险开车回家并最终安全到家,那么在同样的情况下也有可能发生事故。
一般来说,后者的罪责会更大,但其实两者都有错在先,唯一的不同就是结果罢了。
由此看来,Uber 的致命车祸并不代表价值中立或理直气壮的牺牲一位路人,以保全未来乘客的安全。相反,它强调了这样一个事实,那就是积极结果(如更安全的车和行人等)很容易成为自动驾驶汽车道德运气的功能。
道德运气还为自动驾驶汽车提供了其他途径的思考。在自动驾驶汽车上,我们很难确定它们的自主行为。
那么,Uber 司机清楚的知道且理解自己一举一动可能造成的后果吗?人类能切入机器操作,但又不进行积极操作吗?亚利桑那的邀请是否能帮 Uber 减轻罪责呢?这些问题现在都成了事故的焦点,无论是在亚利桑那还是其他地方。不过,对 Elaine Hertzberg 来说,这恐怕只能算一个无用的安慰。
这篇文章的目的不是要责怪或者赞美谁,也不是要庆祝或哀悼自动驾驶汽车的未来。相反, 它在呼唤更多的道德复杂性,这是解决现在和将来自动驾驶汽车问题的必需品。
所谓的伦理并非将一个简单的微积分套在某种情况上,当然也不是人类有关某个典型案例的意见集合。当工程师、批评家、记者或普通人认为电车难题才是自动驾驶汽车的终极拷问时,他们就自动放弃了对更为复杂道德情况的思考。
对哲学家来说,虽然实验是考虑未知结果或重新考虑已经接受观点的好方法,但它也只是一种思考工具,并非现成的菜谱。
电车难题让人们产生了误解,以为自动驾驶汽车是已经可靠存在的成熟技术,某些假设的抽象道德行为可以针对性解答了。事实上,我们离真正的自动驾驶时代还有距离。
与此同时,市民、政府、汽车制造商和科技公司必须继续探索,找到更多有关自动驾驶汽车的复杂道德后果的问题。
是时候踩下刹车了,在电车难题碾碎所有人的梦想之前。
雷锋网注:6项雷锋网新智驾会员专享特权,全年100期精华内容,带你深入浅出看懂自动驾驶。欢迎点击链接,加入新智驾会员计划 : https://www.leiphone.com/aidrive/vip 或扫描海报下方二维码了解详情。
。