特斯拉「自动驾驶致死事件」的专业解读
原文链接: http://geekcar.com/archives/45559
微信公众号:GeekCar
2016 年 7 月的第一天,特斯拉终于搞了个大新闻。
特斯拉在官网的 Blog 中,公开了第一起因为使用 Autopilot 功能致死的交通事故,并把这起事故称为「A Tragic Loss」。随后,Elon Musk 在推特上转发了这条新闻,引起众多媒体纷纷报道。(注:「Autopilot」是特斯拉自动驾驶系统的名称)
在发生这起事故前,特斯拉的 Autopilot 已经累积了超过 2 亿公里的安全行驶里程。平均而言,美国范围内平均每 1.5 亿公里发生一起致死交通事故。从数字上来看,虽然 Autopilot 比人类驾驶员更安全,但机器致死还是值得我们深思的。
还原一场惨烈的事故
这起事故发生在今年 5 月 7 日中午,目前美国 NHTSA 正在调查之中,正式的调查结果还未公布。但根据特斯拉已公布的信息,我们还是能够还原部分事故发生时的情景的。
发生事故的车主叫做 Joshua Brown,当时开着一辆 Model S 行驶在佛罗里达州的 Williston。特斯拉曾明确提出,事故发生的时候车主开启了 Autopilot 功能。下面这张图是事故发生地的 Google 街景图。
当时路口处有一辆卡车(官方的措辞是「tractor trailer」,即货柜+车头的结构),这辆卡车正在横穿马路。此时 Model S 正行驶在车道线内,处于自动驾驶状态,并和卡车呈接近垂直的方向。
由于特斯拉的 Autopilot 系统判断错误,车在毫无减速的情况下钻进了货柜下方。根据卡车司机的描述,事故发生后,Model S 车里还在播放着「哈利波特」。(下图仅为 tractor trailer 车型示意图,并非事故车)
虽然没有现场事故照片,但我们也能脑补一下:一辆轿车钻进了货柜下方,脆弱的 A 柱瞬间断裂,车顶被削,车主当场死亡。在这场事故中,几个关键因素造成了这起事故,是偶然也是必然。
首先,这次卡车是横置的,摄像头很难从侧面识别一辆正在缓慢移动的卡车。另外,当天的佛罗里达州的阳光很强,卡车本身也有反光,可能导致 Model S 不能识别出卡车和天空。其次,卡车底盘很高,并且和 Model S 处于互相垂直的位置。Elon Musk 说在这种情况下,车会以为是在通过安装在头顶的路牌,不会自动刹停。
无独有偶,在今年 3 月份的时候,一位车主在使用「召唤」功能时,车自己追尾了一辆大货车,撞坏了前挡风玻璃但没有人受伤。到底是谁的责任,还得扯皮一段时间。这么看来,特斯拉的 Autopilot 确实对各种各样的卡车不太感冒,所以提醒广大车主务必注意安全…
圈里人都怎么看?
关于特斯拉的这起事故,我和自动驾驶行业内的很多专家聊了聊,专业人士的观点很值得你一看。(部分人不方便透露公司和姓名,请谅解)
车和家 CEO、汽车之家创始人李想 ( 这段话取自他的微博,他本人也是资深特斯拉车主)
如果有激光雷达就可以避免了,摄像头为主的 ADAS 方案做自动驾驶还是有一定的缺陷,就是光线所造成的影响,包括更精准的距离判断,哪怕万分之一次的误判都是关乎生死的风险。
目前还只能解放手和脚,不能解放眼,车主们要正确使用,在 Tesla 上睡觉这种事情就别宣传了。
MINIEYE CEO 刘国清
这起事故可能是由以下的一个,或者几个「BUG」一起导致了这起悲剧:
1. 为了更好的控制(「正常」工况下的)误检率和模型复杂度,Tesla 使用的前向视觉感知系统(Mobileye 提供)只能识别前车尾部,而不支持侧面车识别(注意,当时前方的挂车正处于转向状态,所以是侧面车身对着 Tesla),于是导致视觉感知失效;
2. 一般情况下,即便 camera 没有捕捉到,但 radar 也能够探测到前方障碍物的存在,但事故中挂车的底盘相对太高,同时 Tesla 上 radar 的安装位置又相对低,这种错位有可能导致 radar 对挂车的感知失败;
3. 当然,还有一种可能性,事发时的特殊场景触发了 sensor fusion 机制中某种隐藏 bug。
关于特斯拉的 Autopilot,现在的过度宣传和广告都在告诉消费者这项技术有多智能,给大家造成这汽车已经可以自主驾驶的印象——但现在汽车行业大部分还处于 1 到 2 级,也就是需要人为干预,技术只能作为辅助。即便如 Tesla 这样的公司,离完全实现无人驾驶也还有一段距离。
在未来,驾驶无人化是必然的,只是比我们想象的要更慢。坦白说,我认为要实现完全的自动化驾驶一定会花超过 10 年的时间,甚至更久。因为这是一个异常庞大且复杂的系统,由很多个协同工作的子模块构成,而遗憾的是,其中相当一部分模块离成熟都还有不小的距离。在通往无人驾驶的道路,需要更多像 Mobileye 一样的公司,持久、专注的在自己的技术领域坚持。
奇点汽车 CEO 沈海寅
此次特斯拉事故背后,对于自动驾驶汽车, 舆论争议最多的一点,可能就是一旦这类车辆出现了交通安全事故,应该如何界定和划分责任,而在遇到道德层面暧昧不清时,我们也主张遵守法律为主。但在复杂的城市道路环境中,自动驾驶汽车因交通事故所带来的责任问题尚没有明确立法,自动驾驶汽车行驶规范与法律法规还基本上是空白,这是影响自动驾驶商业化最重要因素之一。
其实,自动驾驶汽车完全可以在不违规的情况下,机智地做出很多安全的决策,而做到这点,就离不开与人工智能技术的深入结合。这里我们可以举一下 AlphaGo 例子,TA 突破了传统程序,搭建了两套模仿人类思维的深度卷积神经网络:value networks 承担棋局态势评估, police networks 选择如何落子。向人类棋手学习, 从海量样本的胜局和败局中学,并自动提取规则,进行推理。
而自动驾驶让车辆做出合理判断的关键也同样在 AI 技术,智能系统是否可以利用人工智能技术让驾驶认知的形式化、并通过数据积累不断学习驾驶技能,最终替代驾驶员的感知、认知和行为。
拿森电子 CEO/CTO 陶喆
这次事故不是三言两语就能够解释的,但「安全件」的开发,要符合相应的安全开发流程、安全标准。
安全件的开发最主要的不是功能的实现,而是实现产品的安全性和可靠性。在这方面,其实传统车企都是 follow 自己的设计规范、标准。在这一点上,特斯拉以及那些互联网造车公司还是很缺乏积累的。
这次事故,也是对新成立的主机厂、互联网造车团队的一次警示。传统车企在过去 130 多年积累的经验和知识,是他们最大的优势,传统车企的优势则是新兴车企的劣势。
另外,产品的安全性和可靠性应该是新兴主机厂花大量时间精雕细琢的。
某供应商辅助驾驶系统专家
个人感觉这个是正常现象,首先驾驶员需要负主要责任,应该是驾驶员没有注意工况,而且 Tesla 只是减轻驾驶员驾驶负担而不是「托管」。
这里需要深究的问题是:Tesla 如何对驾驶员的「行为」进行监控,除了手部之外是否还需要更多的监控,比如监控驾驶员的脸部,驾驶员是否睡觉,是否观看视频等。另外需要关注的就是驾驶员如果长时间未对车辆进行任何操作,在事故发生之前特斯拉是否有提醒驾驶员,以及系统退出机制是什么样的。
个人觉得,如果 Tesla 自身系统有一些限制的话(这个肯定存在,毕竟没有 LiDAR 以及 V2X),那么当 Autopilot 系统无法应对该工况,必须要对驾驶员进行视觉、听觉或者是触觉的提醒,自己的系统在提醒之后也应该退出。
针对本次事故,对于毫米波雷达来说,缓慢移动的物体反射面复杂,反射点多;对于摄像头来说,因为这次卡车是横置的,而尾灯是判断车辆很重要的特征属性,所以有可能没有识别到,横向移动的卡车一般摄像头是不识别的。
中国工程院院士李德毅
关于自动驾驶的安全性,李德毅院士今天在北京理工大学的一个讲座上也发表了自己的看法:
「因为驾驶活动充满不确定性,启用自动驾驶的窗口条件不能保证启用后仍然满足,窗口条件太脆弱,容易被打碎,随时要求驾驶员接管。自动驾驶表面上释放了人的手脚,但没有人的注意力,本质上是辅助不是自动,仍然是驾驶员担责。」
看了上面的这些说法,你就会发现起码在业内,大家还是主张驾驶员应该对车辆负责。目前来说,特斯拉虽然声称自己的 Autopilot 系统处于「Public beta phase(公开测试期)」,多次强调驾驶员双手要放在方向盘上,但是很多狂热的科技爱好者,依然选择过于相信机器。
这次发生事故的 Joshua Brown 就是其中之一,他非常喜欢特斯拉的 Autopilot 功能。在他的 YouTube 主页上,有很多关于火箭、波士顿动力机器人以及特斯拉的视频,其中就有他用行车记录仪拍摄到的 Autopilot 如何工作,避免车祸的视频。但是,这一次 Autopilot 没能拯救他的性命。
无论如何,机器毕竟是冰冷的,还是人在操纵,人类必须学会如何「正确」操纵这些机器。
————————————————————
原创声明:本文为GeekCar原创作品,转载时请注明“转自GeekCar”及原文链接。
微信号:GeekCar,汽车科技新媒体,专注于智能汽车、车联网、新能源等前沿科技与产品。