自动驾驶的道德问题是真实存在的,但未必就是“电车难题”
文/台伯河 编辑/ 易建成
这一次人工智能的狂飙突进很有可能是真的。
技术和基础设施的进步让人工智能真的可以投入到实际应用中去。目前来看,人工智能的实际应用中一个非常宏伟也非常有前景的领域就是—— 自动驾驶 。
自动驾驶有望将人类从驾驶汽车,这个最不安全也是最浪费时间精力和各种资源的领域解放出来,将带来整个汽车行业乃至整个社会形态的革命。
然而自动驾驶的安全性疑虑和呼声一直不小:总有很多人不放心将自己的性命寄托于一台机器上。这种怀疑也衍生出了很多不同的版本,其中最有趣的就是传统道德哲学中的“电车问题”在新时代的翻版:自动驾驶的道德问题。
道德问题的源起
如果一辆自动驾驶的汽车遇到了这样一个困境:在马上就要出车祸的当下,左边是一个老人,右边是五个孩子,它应该怎么判断,如何选择行动?我们应该将这种道德判断纳入自动驾驶系统开发的考量吗?
首先,我们可以先回顾一下这个道德问题的源起。
“电车问题”是道德哲学的一个经典问题:如果说开来一辆火车,前面是两条岔路,你手头有一个扳道岔,你如果不扳,火车就会走原路撞死五个人;如果你扳了,火车就会走上岔路撞死一个人。请问你是扳还是不扳呢?
这就是传统道德哲学所争论的核心:功利主义和绝对主义的区隔。
功利主义说:当然是死一个人要比死五个人好;绝对主义则说:你扳道岔的动作等于是杀死了一个原本不会死的人,所以并没有哪个比哪个更好!这些争论持续了好几代人的时间,电车问题也出现了无数个不同的版本,直到如今这个自动驾驶的时代,仍然会有人问与之相似的问题。
但这里的问题自然就是:一种绝对的,抽象化的道德问题,是否适用于具体的情境分析?传统的道德哲学适用于我们对具体问题的判断吗?或许我们要引入现代的认知科学的研究结论。
长久以来,古典意义上的道德哲学家都基于理性来推导道德的实在性。他们认为人类是通过理性来判断道德问题的,功利主义或者绝对主义,都是理性基础上的争论。然而现代认知科学告诉我们:人类对道德的判断根本就不是通过理性做出的。
心理学家丹尼尔·卡尼曼在那本著名的《思想快与慢》中指出,人类的大脑分成两个系统:
依赖直觉的系统1,与理性的系统2。系统1反应非常快,不需要我们投入多少关注就能够完成任务,比方说游泳,骑车,或者认脸;而系统2则需要人的有意努力才能够工作,理性的“思考”,也就是“想”,是系统2的任务,它精确却缓慢,耗能很高。
乔纳森·海特在认知科学著作《正义之心》中表示:之前的道德哲学家往往将道德视作理性的结果,也就是说,是系统2的任务;但是心理学实验表明,道德在人类的实际认知中,很大程度上(并非是完完全全的)是系统1的工作;而系统2只起到了一点“事后辩护”的工作。
他做了一个实验:加大实验对象的系统2负担,比方说记住一个很大的数字,然后再做道德判断,结论是在系统2不堪重负的情况下做道德判断仍然很快,这说明道德判断不是系统2的工作。
所以说, 人类做出道德判断,实际上是基本诉诸直觉的。
在这里,我们可以将自动驾驶的道德问题拿来考验人类驾驶员。在一个实际的场景中,你就会发现这样的一个理想假设问题是毫无意义的:在即将出车祸的危急时刻,人类是依靠本能来反应,99%的人类司机都不会在这个时候思索一些复杂的诸如“该撞哪边”这样的道德哲学问题——那么我们为什么会要求机器来完成这种人类都完不成的事情?
回到现实,就会发现目前这样的 给自动驾驶所提出的道德问题实际上毫无意义。
现实生活中并不会出现你刚好站在一个扳道岔,前面是一辆没有刹车的火车这样的情况;同样,现实的交通中同样也不会出现一条笔直的高速公路,前面是一堵墙,左边是一位老奶奶,右边是一个小学生,就看你要撞谁这样的情况。
现实中的交通场景,我们只能规约到现实的条件中来:车辆轮胎的抓地力如何?刹车情况如何?路面是否湿滑?左右行人距离和方向?临车位置?
这一切都要纳入考量,然后让人工智能来判断最优的解决方案——在99.999%的情况下我相信机器的解决方案都比人更优,因为机器不会走神,不会酒驾,不会打瞌睡,永远警惕。
况且,在正常驾驶中机器显然不会出车祸,而出车祸显然是机器遇到了故障,这也就意味着你要让一台机器出了故障的情况下正常工作——这基本就等价于停机问题:你如何能够要求一台计算机去预测它的停机时间?
我认为“自动驾驶的道德问题”实际上真的存在,但完全不是我们所看到的这种“要撞谁”的天真问题: 自动驾驶的道德问题实际上只有一个:我们应不应该尽快普及自动驾驶。
如何降低死亡率,是最大的道德问题
全世界每年因交通事故死亡人数超过百万,中国每年交通事故死亡超过25万,占四分之一。如何降低这个数字,就是最大的道德问题。
而统计结果表明,交通事故有70%是人为因素;考虑到很多原因实际上是人类自身的生理限制,纯粹的机械因素在交通事故中的占比应该还要更低。我们甚至可以这样说:在交通中最危险的不是任何一种机器,而是人类自己。
所以,目前自动驾驶最大的道德问题在于,我们对于人类驾驶和对于自动驾驶的态度是完全的双重标准:
我们对于自动驾驶的看法是,在自动驾驶系统能够保证100%不出错之前都不能使用它——这个标准自然是不可能达到的,世界上没有完美的东西。而对于人类驾驶的标准——其实是没有标准。
如果我们统一标准,将自动驾驶的标准设定为“统计意义上人类司机的平均水平”,那我相信这一标准早就达到了。现在我们看到业界对于自动驾驶系统的开发,无非是在“超过95%以上人类司机的水平”还是“超过99%以上人类司机的水平”上努力——这样的努力当然有意义,但是从整个大图景来看,不是雪中送炭而是锦上添花。
所以 自动驾驶的道德问题的答案是很清楚的:我们应该尽快的普及自动驾驶,所要跨越的,更大程度上是法律和人心的障碍,而不是技术障碍。
自动驾驶下的世界肯定要比现在更美好得多:交通事故发生率有数量级的下降,人们不用再担心被一辆酒驾或者打瞌睡的司机撞到,机器也不会忽略交通标志,在晚上也能看得清清楚楚。
作为乘客,我也不需要再在长途车上浪费我的精力和时间,忍着疲劳去开10个小时车:自动驾驶情况下这段旅程我大可以睡一觉,玩游戏,看风景,干什么都行,就跟我们现在坐高铁一样。
大城市糟糕的交通情况也将会有极大的改善:统计数据表明,在任意时刻,80%以上的车辆都是静止的。
如果我们能够通过自动驾驶将车辆利用率提高到50%,城市中也减少了30%以上的车辆:道路不再会是停车场,多余的停车场大可以用来改建成绿地,公园,或者其他更加能够让人放松的元素。
我的推断是2030年前后,人类驾驶将被完全取缔:让人驾驶将会是一项极不道德的行为,就如同现在的自动驾驶一样。
我会开车,但是自从我经历过连续驱车两天,每天10小时以上的旅行之后,我就变成了一个坚决的自动驾驶拥护者。从功利主义角度,自动驾驶毫无疑问将会拯救很多人的生命,他们原本将会被水平差劲、喝过酒或者正在打瞌睡的人类司机撞死。
于是,如果是你站在这个扳道岔上,失控的火车原本走上的那条道路上有好几百万人,而这条岔道上一个人都没有,那你是否要扳动这个道岔呢?
雷锋网特约稿件,未经授权禁止转载。